Il toolkit di PwC per un’intelligenza artificiale eticamente responsabile

Intelligenza artificiale

PwC ha messo a punto un ToolKit per un'intelligenza artificiale (IA) eticamente responsabile per aiutare le aziende, a contrastare l’approccio frammentario allo sviluppo e all’integrazione dell’Ia, che le sta esponendo a rischi potenziali e per imparare a comprendere, sviluppare e integrare specifiche per l’Ia.

Il Toolkit consiste in un pacchetto flessibile e scalabile di competenze globali concepito per consentire e supportare la valutazione e lo sviluppo dell’intelligenza artificiale all’interno delle aziende, personalizzato in base alle esigenze specifiche e al livello dell’Ia implementato.

PwC ha individuato cinque aree sulle quali le aziende devono concentrarsi, personalizzandole in base alle proprie esigenze in termini di strategia, progettazione, sviluppo e impiego dell’IA. Tali aree sono: governance, etica e normative, interpretabilità e capacità esplicativa dei sistemi di IA, solidità e sicurezza dei sistemi di Ia pregiudizi ed equità dei sistemi di IA.

Per PwC solo concentrandosi di queste aree infatti è possibile considerare i possibili impatti etici dell’IA a partire dalla pianificazione strategica e incorporarli quindi in un processo di governance efficace, contribuendo così a contrastare la crescente preoccupazione pubblica rispetto a temi quali equità, fiducia e affidabilità.

Come parte del Toolkit di PwC per una IA eticamente responsabile, grazie a un sondaggio diagnostico, le aziende possono valutare la propria comprensione e applicazione di pratiche IA etiche e responsabili. Tra maggio e giugno del 2019, circa 250 persone coinvolte nello sviluppo e nell’impiego dell’IA hanno completato il processo di valutazione.

Predominano immaturità e incoerenza

I risultati hanno mostrato immaturità e incoerenza nella comprensione e nell’applicazione di pratiche IA responsabili ed etiche. Solo il 25% degli intervistati dichiara di considerare in via prioritaria le implicazioni etiche di una soluzione di IA prima di metterla in atto, mentre uno su cinque (20%) ha processi chiaramente definiti per l'identificazione dei rischi associati all'IA.

Oltre il 60% si affida, invece, a processi informali di sviluppo o non dispone di alcuna procedura documentata.

Esistono già parametri o considerazioni rispetto a un’intelligenza artificiale etica, tuttavia la loro applicazione non è stata costante. Il 56% avrebbe difficoltà a spiegare le motivazioni nel caso in cui l’Intelligenza Artificiale della propria azienda facesse qualcosa di scorretto.

E oltre la metà degli intervistati non ha formalizzato l’approccio alla valutazione dell’IA rispetto ai rischi di discriminazione, adducendo come motivazioni mancanza di conoscenza, strumenti e valutazioni ad hoc. Il 39% di chi applica l’IA su larga scala dichiara di essere “abbastanza” sicuro di sapere come arrestare il proprio processo di IA se qualcosa andasse storto.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome