IBM Watson Studio

Le aziende che sviluppano o utilizzano l’intelligenza artificiale e il machine learning dovrebbero cercare di creare modelli eticamente corretti. Modelli che siano alimentati da dataset esenti da preconcetti, e lo stesso vale per l’engine di intelligenza artificiale e gli algoritmi.

Il punto di vista di Ibm su un tema estremamente attuale è bene esposto in un post sul blog di Watson per mano di Trips Reddy, Senior Content Manager di IBM Watson. Il tema è chiaro: offrire un’indicazione netta in merito al modo in cui costruire la fiducia nell’era dell’intelligenza artificiale.

Il punto è capire in che modo le imprese possano creare modelli di apprendimento automatico che siano “fair”. Fair in questo caso è utilizzato non solo nel significato del termine inglese, “equo”, “giusto”. Ma è una vera e propria “chiave” per interpretare il da farsi.

Reddy parte da un recente rapporto di Forrester, The Ethics Of AI: How To Avoid Harmful Bias and Discrimination. Il report descrive i modelli di dati di apprendimento automatico ideali per essere FAIR. Dove FAIR sta per: Fundamentally sound, Assessable, Inclusive, Reversible.

Le aziende dovrebbero sforzarsi di creare modelli “FAIR” per proteggersi da pregiudizi dannosi. Trips Reddy quindi passa a esaminare le raccomandazioni di Forrester su come le organizzazioni possono sfruttare l’intelligenza artificiale per il bene dell’umanità. Evitando allo stesso tempo le insidie ​​etiche associate alla discriminazione percepita.

Per un machine learning etico

machine learning FAIRLa minaccia di modelli di apprendimento automatico opachi o ingiusti, secondo Ibm, è reale.  Gli ambiti safety-critical e altamente regolamentati hanno una maggiore probabilità di avvertirne l’impatto. Le organizzazioni devono essere quindi in grado di verificare e aggiustare modelli “non-fair”. Altrimenti, rischiano di subire conseguenze normative, economiche e sulla reputazione dell’azienda.

Le imprese hanno la necessità di costruire modelli che possano guadagnarsi la fiducia delle persone nel tempo. Nel training di un modello AI bisogna anche stare attenti a ogni eventuale ingiustizia presente nei dati sottostanti. Come l’apprendimento umano, anche il machine learning, sottolinea Ibm, è un “prodotto” dell’informazione sorgente, in relazione ai parametri di programmazione.

Istruire un engine di intelligenza artificiale con dati insufficienti o non sufficientemente rappresentativi, farà sì che esso ignorerà ciò che non capirà. Ciò può condurre anche alla discriminazione. Quindi data scientist e sviluppatori devono prevenire qualsiasi tipo di pregiudizio umano o “informatico”. Ma allo stesso tempo sfruttare i meccanismi che possano differenziare tra i clienti, ad esempio per realizzare campagne di marketing profilate.

Ibm, sottolinea Reddy, ritiene di avere l’obbligo di monitorare, e correggere, pregiudizi non etici o deplorevoli negli algoritmi stessi. Così come qualsiasi preconcetto causato da dataset influenzati da persone, con cui i sistemi interagiscono. Watson è trasparente su chi esegue il training dei sistemi AI, quali dati sono stati utilizzati e, soprattutto, cosa guida le raccomandazioni algoritmiche dei clienti.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome