Home Intelligenza Artificiale SAS per una intelligenza artificiale “trustworthy” anche alla luce dell’AI Act

SAS per una intelligenza artificiale “trustworthy” anche alla luce dell’AI Act

Il 13 marzo 2024 il Parlamento europeo ha approvato l’AI Act, vale a dire il regolamento sull’Intelligenza Artificiale che, nelle intenzioni dei Paesi membri della Ue, dovrebbe proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di AI ad alto rischio; per capire che cosa cambierà per le aziende e quali sono le avvertenze che i fornitori di sistemi di Intelligenza Artificiale devono adottare, SAS ha organizzato un momento di confronto con due esperte in materia: Josefin Rosén, Trustworthy AI Specialist e membro del global team dedicato alla Data Ethics Practice di SAS; Kalliopi Spyridaki, Chief Privacy Strategist di EMEA e Asia della società, avvocato e professionista delle politiche pubbliche con esperienza nella regolamentazione della privacy, dei dati e dell’AI.

Nel suo intervento Rosén è partita dalla differenza tra Intelligenza Artificiale e AI generativa, sostenendo che soprattutto con l’avvento di quest’ultima si sia diffusa nel pubblico una certa paura alimentata dal sensazionalismo con cui i media tendono a parlare dell’argomento. Il che non significa che non ci siano rischi effettivi.

Il principale è “il fatto che l’AI possa svolgere compiti al posto nostro e possa farlo molto molto più rapidamente di noi e in modo molto più efficiente”. O ancora che “se commette un errore o se si comporta in modo discriminatorio, questo possa avere un impatto significativo su larga scala” ha detto Rosén, che però ha anche sottolineato che tali rischi “si possono affrontare e gestire se si dispone di un solido quadro di governance e di una buona piattaforma di AI”.

In cosa consiste l’approccio “trustworthy AI” di SAS

Da queste premesse discende il concetto di “trustworthy AI”, cioè di affidabilità dell’Intelligenza Artificiale che nella visione di SAS è “by design” e verte su sei pilastri: umano-centrica, inclusiva, responsabile, trasparente, robusta e rispettosa di privacy e sicurezza. A suggerire un orientamento che tenga conto di questi aspetti non è solo il buonsenso, ma anche la normativa che, nel caso dell’AI Act, dovrebbe entrare in vigore probabilmente nel giugno 2024 con effetti che gradualmente si produrranno tra la fine di quest’anno e la metà del 2025.

Kalliopi Spyridaki, Chief Privacy Strategist di EMEA e Asia, SAS
Kalliopi Spyridaki, Chief Privacy Strategist di EMEA e Asia, SAS

Lo ha ricordato Kalliopi Spyridaki richiamando sia quale sarà l’ammontare delle multe per chi non si attiene al nuovo regolamento, sia qual è la ratio della normativa che intende fornire una cornice alle aziende per confrontarsi con le autorità di regolamentazione Ue.

La legge contiene anche disposizioni specifiche che aiutano le piccole e medie imprese in due modi. In primo luogo, imponendo obblighi più leggeri in maniera tale che le aziende possano gestire l’onere della conformità. In secondo luogo, offrendo alle PMI e a qualsiasi azienda la possibilità di testare e provare l’AI che hanno sviluppato in un ambiente sicuro”, ha affermato Spyridaki. “La parte più importante della legge riguarda l’AI ad alto rischio e i sistemi di Intelligenza Artificiale destinati a essere utilizzati dai governi per le infrastrutture critiche”. Ad esempio, “la profilazione degli individui sarà sempre considerata ad alto rischio”.

L’intelligenza artificiale è come il latte: non va fatta scadere

Alla luce delle novità introdotte dall’AI Act e da analoghi interventi legislativi che alcuni Paesi extra-Ue sono in procinto di varare, Josefin Rosén è del parere che non sia una buona idea optare per “l’approccio dello struzzo”, ma che “bisogna prepararsi fin dalla prima riga di codice, per continuare durante il ciclo di vita dell’AI con un processo continuo. Per poterlo fare, è necessario un approccio globale che coinvolga non solo la tecnologia, ma anche le persone e i processi”.

SAS sintetizza tutto questo in un quadrante, che corrisponde alla governance dell’AI, di cui fanno parte supervisione, controllo, piattaforma e cultura. A fondamento ci devono essere dei “buoni dati. Dobbiamo essere sicuri che la qualità dei dati sia buona, perché se si immette spazzatura, anche ciò che si otterrà sarà naturalmente spazzatura”. Così come non si può guardare all’Intelligenza Artificiale se non all’interno del ciclo di vita dell’AI, perché l’AI, analogamente ai dati che ne fanno parte, va monitorata costantemente.

Quando si utilizza l’Intelligenza Artificiale in un contesto aziendale, bisogna assicurarsi che continui a funzionare bene anche nel tempo, perché i modelli sono un po’ come il latte. Tendono a essere meno freschi nel tempo. Tendono a inacidirsi. Quindi devono essere allineati a un presente che cambia continuamente, perché è il presente a essere in continuo cambiamento. Quindi dobbiamo essere in grado di monitorare le prestazioni dei modelli e di impostare alert per la riqualificazione automatica dei modelli quando necessario, in modo che possano rimanere pertinenti e che possano prendere decisioni corrette anche nel tempo”, ha concluso Josefin Rosén.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php