Home Intelligenza Artificiale Come l’Intelligenza artificiale generativa sta cambiando il nostro modo di lavorare e...

Come l’Intelligenza artificiale generativa sta cambiando il nostro modo di lavorare e quali i rischi per i dati aziendali

Di Intelligenza Artificiale (IA, da qui in avanti) generativa si sta parlando molto e, come per ogni nuova tecnologia rivoluzionaria, il clamore è elevato. Perché questa tecnologia promette di cambiare il modo in cui lavoriamo? Come la stanno utilizzando gli utenti? Quali sono i rischi per i dati aziendali e perché c’è una forte spinta a regolamentarla?

Cosa è necessario sapere sulla IA generativa

L’IA generativa è una forma di intelligenza artificiale che prevede l’utilizzo di tecniche di deep learning per creare nuovi contenuti simili a quelli su cui sono stati addestrati i modelli di IA, che possono includere qualsiasi elemento, da testi a immagini, musica, video e codice.

Per addestrare i modelli di intelligenza artificiale generativa si utilizzano in genere grandi quantità di informazioni e algoritmi complessi, affinché apprendano schemi e strutture dei dati. Una volta addestrati, possono poi essere utilizzati per generare nuovi dati simili per stile, tono o contenuto a quelli originali. Ad esempio, il modello GPT-3 di OpenAI è stato addestrato su database di testi provenienti da Internet, tra cui 570 GB ottenuti da libri, testi web, Wikipedia e articoli.

Uno degli strumenti di IA generativa più popolari, ChatGPT, ha raggiunto più di 100 milioni di utenti in poco più di due mesi.

La IA generativa cambierà il modo in cui lavoriamo

Gli strumenti di IA generativa di oggi sono molto più sofisticati dei chatbot. Pur addestrandosi su modelli linguistici, si spingono molto più in là, utilizzando sintesi di immagini e video, oltre che di musica e arte. Ciò significa che l’AI generativa possiede un’ampia gamma di applicazioni, dalla creazione di contenuti alla progettazione di prodotti fino alla ricerca medica.

Ad esempio, DALL-E, sistema basato su OpenAI, produce arte generata dall’IA e chiedendogli di generare un fumetto di un cyber-attaccante, può fornire diverse opzioni in soli tre secondi (vedi Figura 1).

Fumetto di un cybercriminale che accedere a una rete, elaborato da DALL-E.

E poi c’è GPT-4, che utilizza un modello linguistico IA avanzato e può aiutare le aziende ad automatizzare l’assistenza clienti perché è in grado di comprendere le richieste dei clienti e rispondere alle domande più comuni. Può anche identificare modelli che indicano attività fraudolente, ad esempio comportamenti di acquisto insoliti.

L’IA generativa ha il potenziale per assistere i professionisti in un’ampia gamma di settori. I consulenti finanziari possono usarla per analizzare le tendenze del mercato e i comportamenti dei consumatori; gli insegnanti per analizzare le esigenze e le preferenze di apprendimento degli studenti e personalizzare le lezioni; e gli analisti della sicurezza per studiare il comportamento degli utenti e identificare i modelli che portano all’esfiltrazione dei dati.

Ogni nuova tecnologia porta con sé dei rischi

Ferdinando Mancini, Director, Southern Europe Sales Engineering, Proofpoint
Ferdinando Mancini, Director, Southern Europe Sales Engineering, Proofpoint

L’IA generativa promette significativi aumenti di produttività, ma come ogni tecnologia rivoluzionaria, presenta anche dei rischi. Eccone alcuni:

  • Perdita di proprietà intellettuale. Quando uno sviluppatore revisiona una parte di codice sorgente in ChatGPT, diventerà di dominio pubblico? E OpenAI ha diritti su quel codice, dal momento che la sua AI ha contribuito a svilupparlo?
  • Informazioni inesatte. Recentemente, un giudice federale ha respinto una causa e definito una multa di 5.000 dollari agli avvocati di un querelante dopo che avevano usato ChatGPT per ricercare documenti giudiziari che citavano sei casi falsi inventati dallo strumento di intelligenza artificiale generativa.
  • Poiché l’IA generativa impara da contenuti esistenti, può essere parziale, anche più degli esseri umani. In un recente studio, Bloomberg ha osservato che “il modello text-to-image di Stable Diffusion amplifica gli stereotipi su razza e genere”.
  • Conformità alla privacy. Senza una piattaforma di protezione delle informazioni, non esiste un modo automatico per impedire ai dipendenti di inserire dati personali identificabili, come quelli sanitari o finanziari, negli strumenti di IA generativa.

Consapevoli di questi rischi, i Paesi sviluppati stanno introducendo normative specifiche che richiedono trasparenza, supervisione umana e altre garanzie per gli strumenti di IA generativa.

Come monitorare l’utilizzo della IA generativa e prevenire la perdita di dati

Molte aziende vogliono sapere come i loro dipendenti utilizzano l’IA generativa, ma desiderano anche mettere in sicurezza la loro proprietà intellettuale e altri dati sensibili. Esistono piattaforme per la protezione delle informazioni che possono aiutare le aziende a monitorare le attività degli utenti sui servizi di AI generativa e prevenire la perdita di dati preziosi, aumentando al contempo produttività e innovazione,

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php