Home Intelligenza Artificiale Lettera aperta per la ricerca e valutazione indipendente dell’AI

Lettera aperta per la ricerca e valutazione indipendente dell’AI

Un gruppo di ricercatori ed esperti hanno firmato e pubblicato una lettera aperta intitolata “A Safe Harbor for Independent AI Evaluation” al fine di incoraggiare le aziende di intelligenza artificiale a fornire protezioni legali e tecniche per la ricerca “in buona fede” (good faith) sui loro modelli AI.

La lettera aperta si focalizza sull’importanza di valutazioni indipendenti dei modelli di AI generativa proprietari, in particolare quelli con milioni di utenti. In un paper di accompagnamento, gli esperti discutono delle sfide esistenti alla ricerca indipendente e di come si potrebbe sviluppare un ecosistema di ricercatori più equo, trasparente e responsabile.

La lettera aperta si articola in tre punti principali:

  1. La valutazione indipendente è necessaria per la consapevolezza pubblica, la trasparenza e la responsabilità dei sistemi di AI generativa ad alto impatto.
  2. Attualmente, le policy delle società AI possono rifiutare una valutazione indipendente.
  3. Le aziende sviluppatrici di AI dovrebbero fornire tutele di base e un accesso più equo alla ricerca in buona fede sulla sicurezza e l’affidabilità delle AI.

Secondo i firmatari della lettera aperta, le aziende produttrici di AI, i ricercatori accademici e la società civile concordano sul fatto che i modelli di AI generativi comportano gravi rischi. La valutazione indipendente dei rischi è un meccanismo essenziale per garantire la responsabilità. Tuttavia, esistono barriere che impediscono la valutazione indipendente di molti modelli AI.

Ricercatori indipendenti spesso valutano e fanno il “red team” dei modelli AI per misurare una serie di rischi diversi. In questo lavoro, ci si concentra sulla valutazione post-rilascio di modelli (o API) da parte di ricercatori esterni allo sviluppatore del modello. Si parla anche di audit algoritmico da parte di terzi. Alcune aziende conducono anche un red teaming prima del rilascio dei loro modelli, sia internamente che con esperti da loro selezionati.

Sebbene molti tipi di test siano fondamentali, la valutazione indipendente dei modelli AI già distribuiti è ampiamente considerata essenziale per garantire sicurezza, protezione e fiducia. La ricerca indipendente sul red-teaming dei modelli AI ha scoperto vulnerabilità legate ai linguaggi a basse risorse, all’aggiramento delle misure di sicurezza e a un’ampia gamma di jailbreak. Queste valutazioni analizzano un’ampia serie di difetti dei modelli, spesso imprevisti, legati all’uso improprio, ai pregiudizi, al copyright e ad altre questioni.

Nonostante la necessità di una valutazione indipendente, la conduzione di ricerche relative a queste vulnerabilità è spesso legalmente vietata dai termini di servizio dei modelli AI più diffusi, tra cui quelli di OpenAI, Google, Anthropic, Inflection, Meta e Midjourney.

Se da un lato questi termini sono intesi come deterrente contro gli attori malintenzionati, dall’altro limitano inavvertitamente la ricerca sulla sicurezza e l’affidabilità dell’AI; le aziende vietano la ricerca e possono applicare le loro policy con la sospensione degli account. Sebbene le aziende applichino queste restrizioni in misura variabile, i termini possono disincentivare la ricerca in buona fede, concedendo agli sviluppatori il diritto di chiudere gli account dei ricercatori o addirittura di intraprendere azioni legali contro di loro. Spesso la policy di applicazione è poco trasparente e non esiste un meccanismo formale per giustificare o impugnare la sospensione dell’account. Anche a prescindere dal deterrente legale, il rischio di perdere l’accesso all’account può di per sé dissuadere i ricercatori che dipendono da questi account per altri tipi critici di ricerca sull’AI.

Valutare i rischi di modelli già diffusi e con milioni di utenti è essenziale, poiché i modelli presentano rischi immediati. Tuttavia, solo un gruppo relativamente ristretto di ricercatori selezionati dalle aziende ha l’autorizzazione legale per farlo.

I promotori dell’iniziativa ritengono che un paio di impegni volontari possano migliorare significativamente la partecipazione, l’accesso e gli incentivi alla ricerca di interesse pubblico sulla sicurezza dell’AI. I due impegni sono: un porto sicuro legale (legal safe harbor), che protegga la ricerca valutativa di interesse pubblico in buona fede, a condizione che sia condotta in conformità con le pratiche consolidate di divulgazione delle vulnerabilità di sicurezza; e un porto sicuro tecnico (technical safe harbor), che protegga questa ricerca valutativa dall’interruzione dell’account. Entrambi gli approdi sicuri dovrebbero essere estesi alle attività di ricerca che scoprono eventuali difetti del sistema, comprese tutte le generazioni indesiderate attualmente vietate dai termini di servizio di un’azienda.

Sul sito dell’iniziativa è possibile leggere – nonché firmare – la lettera aperta, il paper e gli approfondimenti dei blog.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php