Home Aziende Salesforce Nicola Lalla, Salesforce: come implementare l’IA preservando sicurezza e governance dei dati

Nicola Lalla, Salesforce: come implementare l’IA preservando sicurezza e governance dei dati

Intervista a Nicola Lalla, Vice President Solution Engineering di Salesforce Italia: parliamo di come le aziende possono sfruttare i benefici dell’IA e prevenirne i rischi.

Da dove partire per introdurre l’AI in azienda? Quali sono le attività dove le AI attualmente disponibili possono dare i migliori risultati secondo Salesforce?

È ormai una priorità da parte delle aziende definire un modello di adozione dell’IA. I benefici sono molteplici, ma risiedono principalmente nella capacità di fare leva su una grande quantità di dati per agire in modo puntuale, efficace e, nel caso di tutte le interazioni che l’azienda ha con un cliente, personalizzato. Per non parlare dell’efficienza che si viene a creare man mano che si spinge sull’automazione.

Qualche esempio: con l’aiuto dell’IA Generativa, i team dell’assistenza clienti possono essere in grado di dare risposte più veloci e puntuali ai clienti grazie a risposte generate dal sistema sulla base delle informazioni già in possesso dell’azienda. Oppure il marketing potrebbe creare landing page per campagne di marketing basate sulle preferenze di navigazione e di acquisto personalizzate dei consumatori, o ancora, i team di e-commerce potrebbero creare descrizioni dei prodotti in più lingue, promozioni personalizzate e generazione di metadati SEO per favorire le conversioni. Insomma, tutti strumenti per aumentare la produttività e migliorare i margini e la redditività.

Quali sono gli obiettivi e i KPI da valutare nelle prime fasi di adozione?

Nicola Lalla
Nicola Lalla, Vice President Solution Engineering di Salesforce Italia

Come in tutti i progetti, la definizione di obiettivi concreti e l’identificazione dell’ambito di riferimento è un passaggio chiave. Un passaggio cruciale è quello della preparazione dei dati che rappresentano la base di conoscenza per un efficace utilizzo del modello di IA. Ciò comporta la raccolta di dati pertinenti e di alta qualità, la loro pulizia e pre-elaborazione e la loro compatibilità con il framework di IA scelto. Inoltre, la selezione di metriche di valutazione appropriate e la definizione di prestazioni di base sono fondamentali per misurare il successo del sistema di IA.

Che competenze deve avere (o acquisire/maturare) un’azienda per introdurre l’AI nei suoi processi?

Un’introduzione efficace e sicura dell’IA richiede dati di qualità, come già menzionato, e competenze specifiche sui vari modelli di IA da adottare. Di conseguenza una competenza chiave è la “data architecture” per la gestione e organizzazione dei dati all’interno del sistema informativo che si occupa del modello dei dati, dell’archiviazione, dei flussi di dati, dei metadati (ovvero i dati che descrivono i dati), la sicurezza, la scalabilità e le performance. A seguire sono necessarie competenze specifiche in ambito IA poiché esistono diversi tipi di IA che adottano modelli differenti e anche nell’ambito della IA generativa di cui si parla molto è necessario un alto livello di specializzazione sulla base dell’LLM adottato. Purtroppo, al momento le competenze in questo campo sono molto rare e difficili da reperire sul mercato.

Salesforce grazie alla piattaforma Einstein1, una suite di applicazioni completamente integrate tramite un potente framework di metadati che adesso include anche Data Cloud per armonizzare tutti i dati relativi ai clienti e alle loro interazioni con l’azienda – anche provenienti da altri sistemi –, mette a disposizione funzionalità avanzate di IA sia predittiva che generativa: la personalizzazione e l’estensione delle funzionalità di IA avvengono in modalità “point-and-click“, cioè senza la scrittura di codice, semplificando notevolmente l’adozione di modelli particolarmente complessi. Grazie a questo approccio le competenze da acquisire in ambito IA sono meno specifiche con una maggiore offerta sul mercato del lavoro.

Quanto tempo sarà necessario per vedere i primi riscontri dell’adozione dell’IA?

L’86% dei responsabili IT prevede che l’IA generativa avrà un ruolo di primo piano nelle loro organizzazioni nel prossimo futuro  come evidenziato dal nostro report “State of IT” e secondo McKinsey quasi il 60% delle organizzazioni sta già utilizzato l’intelligenza artificiale (McKinsey State of AI, December 2022). Al momento la maggior parte della adozione è relativa all’ottimizzazione dei processi di assistenza clienti (come i chatbot ad esempio), ma la tecnologia è in rapida evoluzione e il recente avvento dell’IA generativa, un’evoluzione radicale dell’intelligenza artificiale, ha spinto molte aziende ad avviare sperimentazioni per migliorare la produttività, l’efficienza e l’innovazione.

Tuttavia, come dicevo, un passaggio propedeutico per un’efficace IA è il consolidamento e la razionalizzazione di tutti i dati aziendali fondamentali per poter sfruttare appieno le potenzialità dell’IA. Dal recente “Connectivity Benchmark Report” di Mulesoft (Salesforce) purtroppo emerge che l’82% dei responsabili IT dichiara che i silos di dati ostacolano i loro sforzi di trasformazione digitale. Di conseguenza il tempo di adozione dell’IA è influenzato fortemente da questo passaggio propedeutico. Salesforce Data Cloud e Salesforce Mulesoft consentono di accelerare notevolmente questa fase di armonizzazione, integrazione e consolidamento dei dati che poi vengono messi a disposizione delle specifiche funzionalità di IA delle varie cloud (Sales, Service, Marketing, Commerce, Tableau, etc). Grazie alla piattaforma Einstein1 e all’approccio “point-and-click” per la configurazione di tutte le soluzioni Salesforce è possibile ridurre notevolmente i tempi di adozione dell’IA avviando rapidissimamente sperimentazioni su specifici use cases.

Allucinazioni ed errori dell’AI: è possibile mitigare questi problemi?

In un recente sondaggio la maggioranza dei 515 leader IT intervistati è scettica sulle implicazioni etiche dell’IA generativa. Quasi sei su dieci (59%) ritengono che i risultati dell’IA generativa siano imprecisi e quasi due terzi (63%) concordano sulla presenza di pregiudizi nei risultati dell’IA generativa (ad esempio, disinformazione e incitamento all’odio). Inoltre, il 71% ritiene che l’IA generativa aumenterebbe l’impronta di carbonio a causa dell’incremento del consumo di energia informatica.

L’Einstein Trust Layer di Salesforce nasce proprio allo scopo di mitigare queste preoccupazioni.

L’Einstein Trust Layer è un’architettura IA sicura, integrata in modo nativo nella piattaforma Salesforce, costruita su Hyperforce per garantire la data residency e la compliance dei dati, progettata per gli standard di sicurezza aziendali; consente alle aziende di trarre vantaggio dall’IA generativa senza compromettere i dati dei clienti. Il Trust Layer è un layer di intermediazione tra le interazioni degli utenti con gli LLM che maschera le informazioni di identificazione personale (PII), controlla la tossicità dell’output, garantisce la privacy dei dati, impedisce la persistenza dei dati dell’utente o il loro utilizzo in ulteriori training del modello.

Quali sono le possibili ripercussioni di introdurre l’AI in azienda su privacy e riservatezza?

Sicurezza e affidabilità dei dati sono ormai elementi fondamentali per il successo aziendale e devono andare di pari passo con l’evoluzione dell’Intelligenza Artificiale.

Salesforce ha creato l’Einstein Trust Layer proprio allo scopo di garantire l’adeguata sicurezza e riservatezza dei dati aziendali per gestire l’interazione con l’LLM: dynamic grounding (arricchimento del prompt di richiesta con dati aziendali), data masking, prompt defence, toxicity detection, audit trail, etc.,  solo per citarne alcuni.

Addestrare un proprio modello di AI: che benefici può portare? I costi sono accessibili a un’azienda di medie dimensioni?

Adottare e addestrare un proprio modello di IA può risultare sicuramente più specifico e puntuale, ma, come detto, può facilmente diventare un progetto dai tempi molto lunghi e dagli esiti incerti. Innanzitutto, bisogna tenere in conto dei tempi richiesti per dotarsi delle competenze necessarie che sono appunto molto rare al momento. Dopodiché si devono consolidare i dati necessari e solo successivamente si può procedere all’addestramento del modello che è un processo molto costoso (può arrivare a milioni di dollari all’anno) che richiede continui raffinamenti.

Per questi motivi Salesforce ha adottato un approccio differente chiamato “grounding” che permette di connettere i dati aziendali con l’LLM: Il grounding consiste nell’aggiungere ulteriori dati alla domanda o al “prompt” che si invia all’LLM. Più la domanda sarà specifica e circostanziata, migliore sarà il risultato fornito dall’LLM. Inoltre, il grounding comporta un enorme vantaggio in termini di sicurezza e governance dei dati. Quando si addestra un modello, l’LLM impara dai vostri dati, e perdete il controllo e la governance su di essi. È come dire un segreto ai propri colleghi. Una volta che glielo dici, perdi il controllo su ciò che gli dici. Dopo di che possono dirlo a chi vogliono, nonostante la promessa che vi hanno fatto di mantenere il segreto. Con il grounding e il nostro Einstein Trust Layer, questo non accade perché l’LLM ha accesso ai dati solo nel momento in cui deve utilizzarli. Una volta fornita la risposta all’utente, i dati vengono scollegati e l’LLM non ne ha più memoria. In questo modo otteniamo il meglio dei due mondi: generazioni potenti, ricche e consapevoli del contesto che preservano la governance e la sicurezza dei dati.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php