Il Parlamento europeo ha affermato che l’intelligenza artificiale deve essere soggetta al controllo umano, in modo da essere corretta o disabilitata in caso di comportamenti imprevisti.
In una risoluzione approvata con 364 voti favorevoli, 274 contrari e 52 astensioni, si chiede un quadro giuridico comunitario sull’intelligenza artificiale con definizioni e principi etici, che coprano anche il suo impiego in campo militare.
I deputati hanno chiesto anche all’UE e agli Stati membri di garantire che l’intelligenza artificiale e le tecnologie correlate siano incentrate sull’uomo, ossia destinate al servizio dell’umanità e del bene comune.
Intelligenza artificiale nel settore pubblico
L’aumento dell’uso dei sistemi di intelligenza artificiale nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni.
Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull’intelligenza artificiale e dovrebbero avere la possibilità di fare ricorso.
Quando l’intelligenza artificiale viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato.
Nel settore della giustizia, invece, l’uso delle tecnologie di intelligenza artificiale può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo.
Intelligenza artificiale e sorveglianza di massa
Il testo approvato a Bruxelles dal Parlamento europeo richiama anche l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di intelligenza artificiale nella sorveglianza civile e militare di massa.
Il Parlamento europeo chiede che alle autorità pubbliche sia vietato l’uso di “applicazioni altamente invasive di punteggio sociale”, per il monitoraggio e la valutazione dei cittadini.
I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di “destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali”.
I creatori dovrebbero essere obbligati ad etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.
Strumento solo di pace
I deputati hanno sottolineato che la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività UE nel campo della difesa. I sistemi abilitati all’intelligenza artificiale.
Anche l’uso di sistemi d’arma autonomi e letali, i sistemi Laws, Lethal Autonomous Weapon System, solleva questioni etiche e legali fondamentali.
I deputati hanno ribadito la richiesta di una strategia UE che li proibisca e la messa al bando dei cosiddetti “robot assassini”.
La decisione di selezionare un bersaglio e di compiere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.
L’Unione europea deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l’uso militare dell’intelligenza artificiale, a fianco dell’ONU e della comunità internazionale.