Capgemini, alle aziende conviene usare eticamente l’IA

Un approccio etico all’utilizzo dell'intelligenza artificiale(IA) sta diventando fondamentale per conquistare la fiducia delle persone: il dato emerge da un nuovo studio del Capgemini Research Institute.

Gli intervistati hanno infatti affermato che sarebbero più fedeli, disposti ad aumentare gli acquisti, o a sostenere le aziende che dimostrano di fare un uso etico dell’IA. Lo studio, dal titolo Why addressing ethical questions in AI will benefit organizations, ha coinvolto 1.580 dirigenti di grandi aziende in 10 paesi e oltre 4.400 consumatori in sei paesi.

Chi utilizza eticamente l'IA sarà premiato

eticaIl 62% dei consumatori intervistati ha dichiarato di riporre una maggiore fiducia in un'azienda le cui interazioni con i sistemi di IA vengono percepite come etiche. Il 61% ha invece affermato di essere disposto a condividere esperienze positive con amici e familiari, il 59% che l’uso etico dell’IA incrementerebbe il proprio grado di fidelizzazione con un’azienda e il 55% che questo si tradurrebbe in un aumento dei prodotti acquistati e in un incremento dei feedback positivi sui social media. Al contrario, quando le interazioni tra i sistemi di Ia e i consumatori generano problemi di natura etica, questi minacciano sia la reputazione sia i profitti. Il 41% degli intervistati ha dichiarato che si lamenterebbe qualora un'interazione con i sistemi di Ia portasse a problemi etici, il 36% richiederebbe una spiegazione e il 34% smetterebbe di rivolgersi a tale azienda.

I problemi etici dei sistemi di IA

I dirigenti di 9 aziende su 10 ritengono che l’utilizzo dell’IA abbia generato problemi etici negli ultimi 2-3 anni. Per esempio nel settore sanitario per quanto riguarda la raccolta di dati personali dei pazienti senza il loro consenso, oppure in quello bancario e assicurativo, per via dell’eccessivo utilizzo di decisioni machine-led senza aver avvisato prima il cliente. La cause riscontrate da un lato evidenziano le pressioni per l'implementazione dell'IA, dall’altro l’assenza di un approccio e di risorse dedicate all’aspetto etico dell’implementazione dei sistemi di IA.

Consumatori, dipendenti e cittadini sono preoccupati

Quasi la metà degli intervistati (47%) ritiene di aver sperimentato almeno due tipi di utilizzo dell'IA che, negli ultimi 2-3 anni, hanno dato luogo a problemi etici. La maggior parte (74%) ha dichiarato di volere maggiore trasparenza quando si trova a usufruire di un servizio erogato tramite l'IA, mentre il 72% vuole sapere se la tecnologia li stia trattando in modo equo. Più di tre quarti dei consumatori (76%) ritiene che ci dovrebbe essere una regolamentazione aggiuntiva sull'utilizzo dell’Ia da parte delle aziende.

Il 51% dei dirigenti ritiene che sia importante garantire l’etica e la trasparenza dei sistemi di IA. Le organizzazioni stanno anche adottando azioni concrete quando vengono poste loro questioni etiche. La ricerca ha rilevato che il 41% dei dirigenti senior riferisce di aver abbandonato completamente i sistemi di IA che sollevavano problemi etici.

Prioritario definire un approccio etico

Per indirizzare le preoccupazioni dei consumatori e guadagnare un vantaggio competitivo nell’utilizzo etico dell'IA, è necessario progettare i sistemi fin dal principio per rispondere a queste esigenze. In tal senso, Capgemini raccomanda un approccio strategico che tenga in considerazione tutti i principali stakeholder dell’ecosistema.

CxO, business leader e responsabili per la fiducia e l’etica aziendale devono stabilire una strategia e un codice di condotta per l'utilizzo etico dell’IA, sviluppare adeguate procedure di adozione per i dipendenti e per le applicazioni basate sull’IA, creare strutture di governance etica e garantire responsabilità per i sistemi di IA e costruire team eterogenei per assicurare un’elevata sensibilità su tutto lo spettro delle questioni etiche.

Le funzioni che hanno un contatto diretto con il pubblico, come risorse umane, marketing, comunicazione e servizio clienti devono garantire un uso etico nell'applicazione dell'Ia, informare ed educare gli utenti per costruire fiducia nei sistemi di IA, fornire supporto e assistenza nell’interazione con l’IA e comunicare tempestivamente eventuali criticità correlate all’IA sia all’interno dell’azienda che verso il consumatore. I responsabili in ambito IA, dati e It devono cercare di garantire il più possibile trasparenza e comprensione dei sistemi, una corretta gestione dei dati per mitigare i potenziali rischi, il monitoraggio continuo per verificarne precisione e accuratezza e l’utilizzo di strumenti tecnologici che assicurino l'etica nell'IA.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome