Nell’ambito della sua strategia digitale, con AI Act l’UE intende regolamentare l’intelligenza artificiale per garantire condizioni migliori per lo sviluppo e l’utilizzo di questa tecnologia innovativa.
L’IA può creare molti vantaggi, come una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più economica e sostenibile. sostenibile.
Nell’aprile 2021, la Commissione europea ha proposto il primo quadro normativo dell’UE per l’IA. Secondo il documento, i sistemi di IA che possono essere utilizzati in diverse applicazioni vengono analizzati e classificati in base al rischio che comportano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Una volta approvate, queste saranno le prime norme al mondo sull’IA.
Cosa vuole il Parlamento Europeo nella legislazione sull’IA
La priorità del Parlamento è garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di IA dovrebbero essere supervisionati da persone, piuttosto che dall’automazione, per evitare risultati dannosi.
Il Parlamento vuole anche stabilire una definizione uniforme e tecnologicamente neutra di IA che possa essere applicata ai futuri sistemi di IA.
AI Act: regole diverse per diversi livelli di rischio
Le nuove norme stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell’intelligenza artificiale. Sebbene molti sistemi di IA presentino un rischio minimo, devono essere valutati.
Rischio inaccettabile
I sistemi di intelligenza artificiale a rischio inaccettabile sono considerati una minaccia per le persone e saranno vietati. Essi comprendono:
- Manipolazione cognitiva comportamentale di persone o di specifici gruppi vulnerabili: ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini.
- Social scoring: classificazione delle persone in base al comportamento, allo status socio-economico o alle caratteristiche personali.
- Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
Possono essere ammesse alcune eccezioni: Ad esempio, i sistemi di identificazione biometrica remota “post”, in cui l’identificazione avviene dopo un ritardo significativo, saranno consentiti per perseguire reati gravi, ma solo dopo l’approvazione del tribunale.
Alto rischio
I sistemi di IA che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:
- Sistemi di intelligenza artificiale utilizzati in prodotti che rientrano nella legislazione dell’UE sulla sicurezza dei prodotti. Si tratta di giocattoli, aviazione, automobili, dispositivi medici e ascensori.
- Sistemi di intelligenza artificiale che rientrano in otto aree specifiche e che dovranno essere registrati in un database dell’UE:
- Identificazione biometrica e categorizzazione delle persone fisiche
- Gestione e funzionamento di infrastrutture critiche
- Istruzione e formazione professionale
- Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
- Accesso e fruizione di servizi privati essenziali e di servizi e prestazioni pubbliche
- Applicazione della legge
- Gestione della migrazione, dell’asilo e del controllo delle frontiere
- Assistenza nell’interpretazione giuridica e nell’applicazione della legge.
Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita.
Intelligenza artificiale generativa
L’IA generativa, come la ChatGPT, dovrà rispettare i requisiti di trasparenza:
- Rivelare che il contenuto è stato generato dall’IA
- Progettare il modello per evitare che generi contenuti illegali
- Pubblicare sintesi dei dati protetti da copyright utilizzati per l’addestramento.
Rischio limitato
I sistemi di intelligenza artificiale a rischio limitato dovrebbero soddisfare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se continuare a utilizzarle. Gli utenti devono essere informati quando interagiscono con l’IA. Ciò include i sistemi di IA che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake.
Le reazioni dei leader di settore
Jean-Marc Leclerc, Director of EU Affairs, IBM, ha commentato: “IBM si congratula con i negoziatori dell’UE per aver raggiunto un accordo provvisorio sulla prima legislazione al mondo che disciplina in modo completo l’AI. Da tempo invitiamo l’UE ad adottare un approccio attentamente equilibrato, incentrato sulla regolamentazione delle applicazioni ad alto rischio dell’AI, promuovendo al contempo trasparenza, spiegabilità e sicurezza tra tutti i modelli di AI. Mentre i legislatori sono impegnati nell’elaborazione dei restanti dettagli tecnici, invitiamo i politici dell’UE a mantenere l’attenzione sul rischio e sulla responsabilità, piuttosto che sugli algoritmi.
Condividiamo gli obiettivi di consentire uno sviluppo sicuro e affidabile dell’intelligenza artificiale e di creare un ecosistema di intelligenza artificiale aperto e favorevole all’innovazione e riconosciamo che sia i governi che l’industria hanno un ruolo determinante in questo ambito. Recentemente, IBM ha annunciato watsonx.governance per fornire alle organizzazioni gli strumenti di cui hanno bisogno per gestire il rischio, operare in trasparenza e anticipare la conformità a normative, come questa, incentrate sull’intelligenza artificiale. IBM è pronta a collaborare con le istituzioni, i governi e gli altri soggetti interessati dell’UE per supportare l’adozione responsabile e la governance dell’intelligenza artificiale in modo che i benefici possano essere estesi ampiamente a tutte le aziende e alla società”.
Marco Ferrando, Head of Data Science di Var Group, in merito alla conclusione dell’ultimo negoziato interistituzionale per l’AI Act svoltosi a Bruxelles, che auspica la definizione di un testo condiviso e la revisione dei livelli di rischio dell’AI per accrescere la competitività e l’innovazione in UE, ha commentato:
“Apprendiamo oggi con favore della risoluzione dello stallo dell’iter di negoziazione per l’approvazione dell’EU AI Act, il regolamento europeo sull’intelligenza artificiale nato per garantire che i sistemi di AI – tra cui quelli di AI generativa – fossero sicuri, trasparenti e non discriminatori. Dalla prima proposta dell’UE nel 2021, è stato un percorso complesso ma necessario per tracciare le linee di una gestione etica e responsabile dell’AI. L’intelligenza artificiale, tecnologia rivoluzionaria e dirompente, ha cambiato il nostro modo di lavorare, non influendo materialmente sull’esito di un processo decisione, bensì migliorando il risultato di una attività umana già completata, o supportando il potenziale umano a rilevare schemi decisionali. E anche nella nostra visione, l’AI potenzia l’uomo, senza sostituirlo. Affidandoci a questa definizione, crediamo che nella classificazione dei sistemi AI ad alto rischio il legislatore debba considerare criteri diversi per le applicazioni, a seconda dei loro effetti sulla produttività: i dati confermano che l’IA generativa può aumentare la produttività, con un impatto incredibile in alcuni ambiti che per certo non dovrebbero essere considerati ‘a rischio’. L’obiettivo verso cui tendere è l’evoluzione “controllata” dell’AI, negli usi e nelle applicazioni, tutelando le imprese sviluppatrici e utilizzatrici di queste tecnologie e conservando anzi l’innovazione e la competitività dell’UE, e ci auguriamo che l’Ai Act sappia porsi come solida linea guida in questo percorso”.






