Home Digitale Intelligenza artificiale, l'Unione Europea fissa i paletti

Intelligenza artificiale, l’Unione Europea fissa i paletti

Secondo una bozza trapelata del regolamento sull’intelligenza artificiale, i legislatori dell’Unione Europea  stanno considerando multe fino al 4% del fatturato annuo globale per una serie di casi d’uso vietati.

Il piano per regolare l’intelligenza artificiale è da tempo in lavorazione.
Già nel febbraio 2020 la Commissione europea aveva pubblicato un white paper, abbozzando i piani per la regolamentazione delle cosiddette applicazioni “ad alto rischio” dell’intelligenza artificiale.

L’attenzione della UE si concentra sui requisiti di conformità per le applicazioni di intelligenza artificiale ad alto rischio, ovunque possano verificarsi. Da notare che sono stati specificamente esclusi gli utilizzi militari, in quanto non parte integrante dei trattati europei.

L’obiettivo generale della Commissione Europea è aumentare la fiducia del pubblico nell’IA, attraverso un sistema di controlli ed equilibri di conformità intriso di “valori dell’UE” al fine di incoraggiare l’adozione della cosiddetta IA “affidabile” e “incentrata sull’uomo”. Pertanto, anche i produttori di applicazioni di intelligenza artificiale non considerate “ad alto rischio” saranno comunque incoraggiati ad adottare codici di condotta – “per favorire l’applicazione volontaria dei requisiti obbligatori applicabili ai sistemi di IA ad alto rischio”, come afferma la Commissione.

Un’altra parte della bozza del regolamento si occupa di misure a sostegno dello sviluppo dell’IA in sistemi chiusi, invitando quindi gli Stati membri a stabilire schemi di sandboxing normativo in cui le startup e le Pmi possono essere proritizzate per sviluppare e testare i sistemi di IA prima di immetterli sul mercato.

Le autorità competenti “avranno il potere di esercitare i loro poteri discrezionali e le leve di proporzionalità in relazione ai progetti di intelligenza artificiale delle entità che partecipano alla sandbox, preservando pienamente i poteri di vigilanza e correttivi delle autorità”, osserva la bozza.

Cos’è l’intelligenza artificiale ad alto rischio secondo l’UE

Secondo le regole contenute nella bozza, coloro che intendono applicare l’intelligenza artificiale dovranno autovalutare se un particolare caso d’uso è “ad alto rischio” e quindi se devono condurre o meno una valutazione di conformità pre-commercializzazione obbligatoria.

Secondo il regolamento, la classificazione di un sistema di IA come ad alto rischio dovrebbe essere basata sul suo scopo previsto, che dovrebbe riferirsi all’uso per il quale un sistema di IA è destinato, compreso il contesto e le condizioni d’uso specifici. Dovrebbe inoltre considerare se quest’intelligenza artificiale può causare danni e – in questo caso – la gravitò del possibile danno e la probabilità che questo evento averso si verifichi. ed essere determinata in due fasi da considerando se può causare determinati danni e, in tal caso, la gravità del possibile danno e la probabilità che si verifichi.

Nella bozza sono elencati esempi di “danni” associati ai sistemi di IA ad alto rischio che includono lesioni o morte di una persona, danni alla proprietà, impatti sistemici negativi per la società in generale, interruzioni significative della fornitura di servizi essenziali, l’impatto negativo sulle attività finanziarie, educative o professionali delle persone. Inoltre, gli effetti nefasti sull’accesso servizi pubblici e ai diritti fondamentali europei.

Vengono inoltre discussi diversi esempi di applicazioni ad alto rischio, inclusi i sistemi di reclutamento; sistemi che forniscono accesso a istituti di istruzione o formazione professionale; valutazione del merito creditizio; sistemi decisionali applicati in materia di prevenzione, individuazione e perseguimento dei reati e sistemi decisionali utilizzati per assistere i giudici.
Fintanto che i requisiti di conformità sono soddisfatti, tali sistemi non sarebbero esclusi dal mercato dell’UE ai sensi del piano legislativo.

Intelligenza artificiale, pratiche vietate e biometria

La Commissione Europea, nel testo della bozza, prevede un divieto categorico verso alcune applicazioni di intelligenza artificiale.
Vengono vietate le applicazioni (commerciali) di sistemi di sorveglianza di massa e sistemi di punteggio sociale.
Si tratta di applicazioni di IA che appaiono palesemente in contrasto con i valori fondanti dell’Unione Europea.
Inoltre, la UE vieta i sistemi di AI pensati per manipolare il comportamento umano, le decisioni o le opinioni, per un fine dannoso.
Analogo divieto per i sistemi che utilizzano i dati personali per generare previsioni sfruttando e amplificando le vulnerabilità di persone o gruppi sociali.
Il regolamento, tuttavia, prevede alcune eccezioni per la sorveglianza intesa come supporto alla sicurezza pubblica.
Tuttavia, la Commissione Europea specifica che l’identificazione biometrica tramite intelligenza artificiale a distanza nei luoghi pubblici sarò sottoposta al regime autorizzatorio più restrittivo, tra quelli previsti per le tecnologie “ad alto rischio”. Si tratta di un compromesso che da un lato consente l’utilizzo della IA in contesti di sicurezza pubblica, e dall’altro si propone di evitare situazioni discriminatorie già oggetto di polemiche sia negli Stati Uniti che in Cina.

La bozza prevede che un sistema di IA sia sottoposto a una nuova valutazione ogni volta che si verifica una modifica che può influire sulla conformità del sistema al regolamento o quando lo scopo previsto dal sistema cambia.

Per i sistemi di intelligenza artificiale che continuano ad ‘apprendere’ dopo essere stati immessi sul mercato o messi in servizio, le modifiche all’algoritmo e alle prestazioni che non sono state predeterminate e valutate al momento la valutazione della conformità si tradurrà in una nuova valutazione del sistema di IA.

Per le società, dopo aver soddisfatto questi requisiti sarà possibile utilizzare il marchio CE; una “certificazione” che potrebbe essere fondamentale per conquistare la fiducia degli utenti e un accesso senza limiti al mercato comune europeo.

intelligenza artificiale

Trasparenza per bot e deepfake

Oltre a cercare di mettere fuori legge alcune pratiche e stabilire un sistema di regole paneuropee per portare i sistemi di intelligenza artificiale  “ad alto rischio” sul mercato in modo sicuro, il regolamento proposto cerca di ridurre il rischio che l’IA sia usata per ingannare le persone. E Lo fa suggerendo regole di trasparenza armonizzate per i sistemi di intelligenza artificiale destinati a interagire con persone fisiche (come i chatbot, ad esempio) e per i sistemi di intelligenza artificiale utilizzati per generare o manipolare contenuti di immagini, audio o video..

La bozza specifica che alcuni sistemi di IA destinati a interagire con persone fisiche o a generare contenuti possono comportare rischi specifici di inganno, indipendentemente dal fatto che si qualifichino come ad alto rischio o meno.
In determinate circostanze, l’uso di questi sistemi dovrebbe pertanto essere soggetto a specifici obblighi di trasparenza, fatti salvi i requisiti e gli obblighi per i sistemi di IA ad alto rischio.

In particolare, le persone fisiche dovrebbero essere informate che stanno interagendo con un sistema di IA, a meno che ciò non sia ovvio dalle circostanze e dal contesto di utilizzo.
Inoltre, gli utenti che utilizzano un sistema di intelligenza artificiale per generare o manipolare contenuti di immagini, audio o video che assomigliano in modo apprezzabile a persone, luoghi o eventi esistenti e che a una persona ragionevole sembrerebbero autentici, dovrebbero rivelare che il contenuto è stato creato artificialmente o manipolato etichettando di conseguenza l’output dell’intelligenza artificiale e rivelando la sua origine artificiale.

La lunga gestazione del regolamento europeo sull’IA

Il regolamento, nella sua bozza attuale, è sicuramente molto cambiato rispetto alla precedente versione. Che si tratti di una tematica di importanza centrale per il futuro tecnologico dell’Unione Europea è evidente.
Molti punti sembrano ancora da definire nei dettagli; molti sono i dubbi sulla lentezza con cui si muove l’Unione Europea nei confronti di una tecnologia la cui velocità è di molte grandezze superiore. I rischi potenziali dal punto di vista normativo sono molteplici.
Potremmo ritrovarci con una normativa troppo burocratica e limitante, che di fatto metta l’Unione Europea in una condizione di svantaggio competitivo.
Oppure, di contro, il regolamento potrebbe non essere in grado di mettere i pur necessari paletti ad una tecnologia dal potenziale  – anche negativo – elevatissimo.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php