Home Big Data Soluzioni Il toolkit di PwC per un'intelligenza artificiale eticamente responsabile

Il toolkit di PwC per un’intelligenza artificiale eticamente responsabile

PwC ha messo a punto un ToolKit per un’intelligenza artificiale (IA) eticamente responsabile per aiutare le aziende, a contrastare l’approccio frammentario allo sviluppo e all’integrazione dell’Ia, che le sta esponendo a rischi potenziali e per imparare a comprendere, sviluppare e integrare specifiche per l’Ia.

Il Toolkit consiste in un pacchetto flessibile e scalabile di competenze globali concepito per consentire e supportare la valutazione e lo sviluppo dell’intelligenza artificiale all’interno delle aziende, personalizzato in base alle esigenze specifiche e al livello dell’Ia implementato.

PwC ha individuato cinque aree sulle quali le aziende devono concentrarsi, personalizzandole in base alle proprie esigenze in termini di strategia, progettazione, sviluppo e impiego dell’IA. Tali aree sono: governance, etica e normative, interpretabilità e capacità esplicativa dei sistemi di IA, solidità e sicurezza dei sistemi di Ia pregiudizi ed equità dei sistemi di IA.

Per PwC solo concentrandosi di queste aree infatti è possibile considerare i possibili impatti etici dell’IA a partire dalla pianificazione strategica e incorporarli quindi in un processo di governance efficace, contribuendo così a contrastare la crescente preoccupazione pubblica rispetto a temi quali equità, fiducia e affidabilità.

Come parte del Toolkit di PwC per una IA eticamente responsabile, grazie a un sondaggio diagnostico, le aziende possono valutare la propria comprensione e applicazione di pratiche IA etiche e responsabili. Tra maggio e giugno del 2019, circa 250 persone coinvolte nello sviluppo e nell’impiego dell’IA hanno completato il processo di valutazione.

Predominano immaturità e incoerenza

I risultati hanno mostrato immaturità e incoerenza nella comprensione e nell’applicazione di pratiche IA responsabili ed etiche. Solo il 25% degli intervistati dichiara di considerare in via prioritaria le implicazioni etiche di una soluzione di IA prima di metterla in atto, mentre uno su cinque (20%) ha processi chiaramente definiti per l’identificazione dei rischi associati all’IA.

Oltre il 60% si affida, invece, a processi informali di sviluppo o non dispone di alcuna procedura documentata.

Esistono già parametri o considerazioni rispetto a un’intelligenza artificiale etica, tuttavia la loro applicazione non è stata costante. Il 56% avrebbe difficoltà a spiegare le motivazioni nel caso in cui l’Intelligenza Artificiale della propria azienda facesse qualcosa di scorretto.

E oltre la metà degli intervistati non ha formalizzato l’approccio alla valutazione dell’IA rispetto ai rischi di discriminazione, adducendo come motivazioni mancanza di conoscenza, strumenti e valutazioni ad hoc. Il 39% di chi applica l’IA su larga scala dichiara di essere “abbastanza” sicuro di sapere come arrestare il proprio processo di IA se qualcosa andasse storto.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

css.php