Home Privacy e AI, utopia? Il punto di vista di Dilaxia

Privacy e AI, utopia? Il punto di vista di Dilaxia

Diego Maranini, Consulente applicativo, UTOPIA, Dilaxia, esplora il complesso rapporto tra privacy e AI, cercando di comprendere le sfide e le opportunità.

Nel contesto sempre più pervasivo dell’intelligenza artificiale (AI) e delle tecnologie digitali, il dibattito sulla privacy assume un ruolo di crescente rilevanza. L’AI si propone di trasformare molteplici aspetti della nostra vita quotidiana, portando con sé promesse di automazione, efficienza e miglioramento delle esperienze utente.

Tuttavia, questa rapida evoluzione solleva interrogativi importanti: fino a che punto la nostra privacy potrebbe essere compromessa in un mondo in cui l’AI svolge un ruolo sempre più cruciale? Esiste una coesistenza possibile tra il potenziale della tecnologia e il diritto fondamentale alla protezione dei propri dati personali, o stiamo abbracciando una sorta di “utopia” senza ritorno?

In questo testo esploreremo il complesso rapporto tra privacy e AI, cercando di comprendere le sfide e le opportunità che emergono in un contesto in cui la tecnologia e la sfera personale si incontrano.

Quanto è intelligente un’intelligenza artificiale? Le diverse tipologie di AI

Esistono diverse tipologie di intelligenza artificiale, ognuna con caratteristiche e capacità distinte. L’intelligenza artificiale a capacità ristretta (ANI) rappresenta il livello più elementare dell’AI, in grado di rispondere a domande specifiche o svolgere compiti semplici, come ad esempio l’assistente virtuale Alexa. Dall’altro lato dello spettro, abbiamo l’intelligenza artificiale generale (AGI), che, basata su framework che funzionano secondo le teorie della mente, si avvicina alle capacità umane. Un ulteriore passo avanti è rappresentato dall’intelligenza artificiale super intelligente (ASI), che rappresenta un livello di intelligenza sovrumana e può addirittura acquisire consapevolezza di sé.

Classificazione a parte, perché modelli come ChatGPT hanno avuto un così grande successo? Uno dei motivi è l’utilizzo del linguaggio, capacità che maggiormente contraddistingue l’essere umano: attraverso il linguaggio, si crea il mondo, si costruiscono le società, si intessono relazioni. Con oltre un trilione di token linguistici utilizzati per il suo addestramento, ChatGPT comunica con gli esseri umani, avvicinandosi a loro come mai era accaduto prima per una tecnologia. Il modello sfrutta la relazione statistica tra le parole per generare testo coerente e comprensibile. Tuttavia, le parole scelte sulla base della prossimità statistica potrebbero non corrispondere sempre a situazioni reali, creando ciò che gli scienziati dei dati chiamano il “problema della messa a terra”.

BIAS, rischi e responsabilità

Un aspetto cruciale da considerare nell’AI è il rischio di BIAS, ovvero dei pregiudizi. Un campione di dati parziale o errato utilizzato per addestrare il sistema, un modello che favorisce determinati risultati rispetto ad altri possono portare a una rappresentazione distorta della realtà. Gli stessi pregiudizi umani, spesso involontari, possono influenzare l’addestramento dell’AI, mentre le discriminazioni si verificano quando il set di dati non è rappresentativo. Riconoscere e mitigare questi BIAS è fondamentale per sviluppare sistemi intelligenti equi, inclusivi e rispettosi dei diritti umani: spetta sempre agli esseri umani governare il processo.

Tra le conseguenze indesiderate del rapporto uomo-macchina ricordiamo i “feedback loops”, dove la proposta fatta dall’algoritmo condiziona l’utente e non gli permette di valutare le alternative. Il dato raccolto però sarà condizionato da ciò, portandolo a un loop dove i nuovi dati che osserverà saranno frutto del suo stesso comportamento.

Non dimentichiamo poi che l’utilizzo dell’intelligenza artificiale può avere implicazioni emotive significative sugli esseri umani. Spesso le persone proiettano qualità umane come emozioni e comprensione sui modelli di intelligenza artificiale, inducendole a pensare che questi siano affidabili oracoli capaci di prendere decisioni (effetto ELIZA). Questo può essere fuorviante e persino pericoloso, soprattutto in caso di persone vulnerabili.

Per garantire un utilizzo responsabile dell’AI, sia le aziende sia le persone devono adottare determinate misure. Innanzitutto, è importante riconoscere che nessun modello di AI si adatta a tutti gli scenari e che la completezza del set di dati è fondamentale. L’attività di training dei modelli deve essere governata dall’uomo, assicurando un’adeguata selezione e supervisione dei dati utilizzati e monitorando e affrontando attivamente i BIAS che possono emergere. È fondamentale testare i modelli con dati del mondo reale, piuttosto che affidarsi esclusivamente a dati sintetici che possono portare a problematiche. Infine, è essenziale monitorare costantemente gli output dell’IA e le variabili coinvolte per garantire che siano conformi agli obiettivi etici e legali.

Privacy e protezione dei dati

L’AI presenta quindi sfide significative per la privacy e richiede molta attenzione ai relativi adempimenti normativi. Le applicazioni di intelligenza artificiale possono infatti comportare cambiamenti delle finalità del trattamento dei dati, richiedendo una revisione delle autorizzazioni e dei consensi. I principi di necessità e limitazione sono fondamentali per garantire che i dati vengano utilizzati solo per scopi legittimi e necessari. Inoltre, è importante definire chiaramente i ruoli e le attribuzioni, soprattutto in caso di processo decisionale automatizzato per garantire la responsabilità e la trasparenza.

L’articolo 22 del GDPR e il Considerando 71 forniscono orientamenti per la protezione dei dati personali. Inoltre, il Decreto Trasparenza introduce maggiori tutele per i dipendenti e stabilisce che il datore di lavoro sia tenuto ad analizzare continuamente rischi e impatti sulle persone, informarle sui sistemi decisionali automatizzati utilizzati in azienda, spiegare e comunicare loro come sono stati progettati e prestare sempre la massima attenzione.

L’articolo 6 del GDPR, invece, indica le basi giuridiche che consentono a un’organizzazione di trattare dati personali. Questo articolo è il principale riferimento anche per la finalità di training degli algoritmi dal momento che fornisce un quadro per determinare se il trattamento dei dati personali è lecito. Il Garante privacy nelle raccomandazioni a OpenAI, e a tutti coloro che utilizzano i sistemi di AI, invita a considerare alcune di queste basi giuridiche, a seconda dei casi. Per gli utenti, si richiede il consenso informato con il diritto di revocarlo in qualsiasi momento, insieme alla fornitura di strumenti per la rettifica dei dati e, qualora non sia possibile, per la cancellazione degli stessi. Per i non utenti, invece, si fa riferimento al legittimo interesse come base giuridica, garantendo loro il diritto di opporsi e mettendo a disposizione strumenti analoghi a quelli degli utenti per la rettifica e la cancellazione dei dati.

In generale, quando una società decide di integrare grandi modelli di linguaggio all’interno di un proprio progetto è sempre consigliato un approccio ibrido, in cui si esegue una tokenizzazione dei dati del proprio dominio, creando vocabolari e tassonomie che andranno aggiunti allo stesso modello di linguaggio, in modo tale che l’output sia un sistema in grado di sfruttare a pieno le potenzialità del modello di linguaggio originale, addestrato però secondi i dati del proprio dominio e, quindi, le proprie regole.

Fin dalla progettazione del sistema è quindi importante prediligere la cosiddetta intelligenza spiegabile, ovvero “simbolica”. Basata su regole, vocabolari, tassonomie e grafici della conoscenza. l’AI Explainable (XAI) supera i limiti dell’intelligenza non spiegabile, la cosiddetta AI “Black box” in cui convergono dati ed algoritmi per la creazione di un modello capace di apprendere e decidere in autonomia, con tutti i rischi che questo approccio comporta. Al contrario di quest’ultima, l’intelligenza “simbolica” rappresenta il mezzo idoneo a spiegare i casi d’uso e rendere comprensibile e trasparente le decisioni del sistema e le ragioni dietro di esse.

Le nuove frontiere dell’AI nella protezione della privacy

Sebbene siano ancora limitate, oggi iniziano a diffondersi applicazioni AI nell’ambito della privacy. Il potenziale è altissimo. Alcuni possibili ambiti includono l’obbligo informativo, dove l’AI può essere utilizzata per fornire e selezionare le informazioni più critiche, per una comprensione chiara e semplificata del testo, e l’esercizio dei diritti, facilitando l’accesso e l’esercizio dei diritti sui propri dati personali. Un altro ambito potenziale è il registro dei trattamenti, dove l’AI può fornire indicazioni sulle informazioni da includere, condividere esempi e modelli e, perché no, guidare alla compilazione del registro stesso.

In Dilaxia, ad esempio, per UTOPIA, il software in cloud che aiuta le organizzazioni a adeguare il sistema di gestione privacy al GDPR, abbiamo sviluppato MIA, l’assistente virtuale che tramite la funzione di “ranking” suggerisce i trattamenti più effettuati su determinate attività economiche e grazie ad algoritmi statistici associati a funzioni di NLU simbolica compila le informazioni più importanti del registro.

In conclusione, in un mondo in cui intelligenza artificiale e privacy si incontrano, il futuro sembra promettente ma complesso. Mentre l’AI offre automazione, efficienza e miglioramento delle esperienze utente, dobbiamo anche considerare fino a che punto la nostra privacy potrebbe essere compromessa. È essenziale trovare un equilibrio tra il potenziale della tecnologia e il diritto fondamentale alla riservatezza. Il progresso nell’IA richiede una governance umana responsabile, che riconosca i pregiudizi e i rischi associati, mitigandoli attivamente.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php