AI affidabile su scala: il framework di sicurezza e governance dell’AI di IBM

AI IBM

Nel 2024 IBM ha sottoscritto gli impegni dell’AI Seoul Summit per l’AI Frontier Safety, un passo avanti verso un’AI sicura e affidabile che IBM ha a lungo sostenuto e sperimentato, sottolinea l’azienda, che ora ha pubblicato ulteriori dettagli su come il framework di governance dell’AI di IBM e la cultura organizzativa dell’azienda supportano lo sviluppo e l’uso responsabile dell’intelligenza artificiale e si allineano agli obiettivi fondamentali degli impegni di Seoul.

L’AI – afferma la società di Armonk – è uno strumento che funziona a seconda di come viene sviluppato, addestrato, messo a punto e utilizzato. La governance dell’AI in IBM comprende strutture di governance organizzativa, supervisione umana e tecnologia all’avanguardia per sostenere etica e guardrail in tutte le fasi del ciclo di vita di un sistema AI e mitigare un ampio spettro di rischi.

IBM fornisce tecnologie AI-enabled, compresi modelli AI, e servizi a enti governativi e aziendali in settori quali i servizi finanziari, le telecomunicazioni e la sanità. Queste entità si affidano a IBM come partner di fiducia che aiuta a far progredire l’AI responsabile con un approccio multidisciplinare e multidimensionale.  L’investimento olistico di IBM in cultura, processi e strumenti fornisce una comprensione più solida dei rischi potenziali e consente di utilizzare diversi criteri di valutazione e mitigazione.

Principles for Trust and TransparencyPillars of Trustworthy AIAI Ethics Governance Framework di IBM sono le pietre miliari dell’approccio dell’azienda alla sicurezza e all’etica. Le pratiche interne di gestione dei dati e l’approccio olistico che la società americana applica attraverso il suo Integrated Governance Program consentono una migliore tracciabilità dei modelli e dei dati e un maggiore dinamismo nell’adattarsi alle nuove sfide, rafforzando queste best practice.

Nell’ottobre 2024 IBM ha pubblicato la sua Responsible Use Guide, riconosciuta dall’Università di Stanford come uno degli LLM più trasparenti al mondo.

La guida evidenzia l’approccio di IBM allo sviluppo, e delinea le scelte di sicurezza dell’intelligenza artificiale affrontate dagli sviluppatori di modelli avanzati, presenta tassonomie, strumenti e risorse per la mitigazione del rischio, fornisce calcoli energetici per l’uso sostenibile dei modelli di IBM e illustra come IBM applica queste considerazioni nella costruzione dei suoi modelli Granite. La guida presenta un processo completo per identificare, mitigare e affrontare sistematicamente i rischi potenziali associati all’AI attraverso quattro fasi chiave:

  • Fase 1: Preparazione dei dati
  • Fase 2: Training e allineamento
  • Fase 3: Valutazione del modello e screening delle vulnerabilità; e
  • Fase 4: Feedback continuo e miglioramenti iterativi.

È possibile scaricare la guida dal sito di IBM.

IBM sottolinea che continuerà ad evolvere i propri strumenti e framework per affrontare le sfide tecniche ed etiche dell’innovazione responsabile. In quest’ottica, IBM è fermamente convinta che i cambiamenti trasformativi dell’AI possano essere sfruttati da tutti solo se il futuro dell’AI è aperto. Poiché la scienza della sicurezza si sta sviluppando, è essenziale un ampio coinvolgimento della community. I modelli AI open source e con licenza permissiva sono una parte fondamentale di un ecosistema di innovazione aperta per l’AI, così come i toolkit e le risorse open source, i dataset aperti, gli standard aperti e la scienza aperta, evidenzia IBM.  Inoltre, i modelli aperti incoraggiano un maggiore coinvolgimento e controllo da parte della community, aumentando la probabilità che le vulnerabilità vengano identificate e corrette e garantendo che l’AI venga sviluppata e utilizzata in modo responsabile.

IBM ha una lunga storia di leadership e innovazione nella community open. Alcuni esempi recenti sono:

  • Il modello IBM Granite è riconosciuto come uno dei modelli LLM più trasparenti al mondo, in quanto fornisce informazioni sulle fonti dei dati e sui metodi di addestramento e consente ai clienti di essere più fiduciosi della sicurezza dell’AI.
  • IBM ha rilasciato i modelli Granite Guardium, una raccolta di modelli progettati per rilevare i rischi nelle richieste e nelle risposte, addestrati in modo trasparente e secondo i principi etici dell’AI dell’azienda, sotto la licenza Apache 2.0 per la ricerca e l’uso commerciale.
  • Nel maggio 2024, IBM e Red Hat hanno lanciato InstructLab, un progetto open-source per migliorare gli LLM attraverso contributi incrementali costanti, proprio come lo sviluppo del software funziona da decenni nell’open source.
  • Nel dicembre 2023, IBM e Meta hanno co-fondato l’AI Alliance, che è cresciuta da 50 membri fondatori e collaboratori a una comunità attiva e internazionale di oltre 140 organizzazioni leader tra industria, startup, università, ricerca e governo che si uniscono per sostenere l’innovazione aperta e la scienza aperta nell’AI. Ad esempio, uno dei principali gruppi di lavoro di AI Alliance è incentrato su Trust and Safety, per ottenere i vantaggi del coinvolgimento della community in questa area scientifica in via di sviluppo.
  • La Partnership on AI, di cui IBM è stata co-fondatrice nel 2016, continua a sviluppare linee guida per l’impiego sicuro dei modelli foundation.
  • Dal 2018, IBM Research ha sviluppato e donato alla comunità open-source diversi toolkit di AI affidabili, in modo che chiunque, ovunque nel mondo, possa utilizzare strumenti affidabili.
  • Il MIT-IBM Watson AI Lab è una comunità di scienziati del MIT e di IBM Research che conducono ricerche importanti e collaborano con organizzazioni globali per collegare gli algoritmi al loro impatto sul business e sulla società.
  • Il Notre Dame-IBM Tech Ethics Lab è stato creato per affrontare le numerose questioni etiche implicate dallo sviluppo e dall’uso di tecnologie avanzate, tra cui l’AI, l’apprendimento automatico (machine learning, ML) e il quantum computing.
  • IBM ha sviluppato diversi metodi per risolvere i problemi di pregiudizio, come FairIJ, Equi-tuning e FairReprogram.
  • Nel luglio 2024, IBM ha collaborato con la Data & Trust Alliance e altre 18 aziende per co-creare e testare i Data Provenance Standards, i primi standard intersettoriali per i metadati che aiutano a descrivere l’origine, la provenienza e l’idoneità dei dati allo scopo.

IBM – sottolinea infine l’azienda – contribuisce inoltre attivamente a diversi sforzi globali per la definizione di metriche, standard e best practice dell’AI con e attraverso alleanze, affiliazioni e governi. Le collaborazioni evidenziate sono solo alcune di quelle in cui l’azienda è coinvolta e spesso ne avvia di nuove per promuovere l’etica dell’AI in tutto il mondo.

Per leggere gli ultimi casi di studio, POV, blog e notizie, è possibile visitare la homepage di IBM AI Ethics.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome