Pensare a un’etica anche per le smart machine

I nuovi dispositivi hanno un'intelligenza straordinariamente elevata rispetto ai precedenti. Le loro potenzialità sono enormi: renderle reali, garantendo quindi risultati di successo, dipenderà dal livello di fiducia che sapranno ispirarci.
Al centro della fiducia ci saranno i valori etici riconosciuti dalle persone. Sviluppare la programmazione etica per le smart machine, macchine intelligenti, secondo Gartner, è uno dei compiti che spettano ai Cio.
"La fiducia deve essere un obiettivo di qualsiasi piano per implementare l'intelligenza artificiale, e sarà un punto importante nella commercializzazione”, ha detto Frank Buytendijk, Research Vp di Gartner.
Gartner ha identificato cinque livelli di sviluppo, dei quali due preliminari e tre di vera e propria programmazione etica. Raccontate così, ricordano le leggi della robotica, quattro principi (sì, c'era la legge zero) sviluppati da Asimov e Campbell nella science fiction. Vediamole.

Pre-programmazione
Il livello 0 è quello della Programmazione Non Etica. Non ci sono considerazioni etiche esplicite e l'utente è in genere un professionista. Il produttore di tecnologia assume una responsabilità etica molto limitata.
Tra gli esempi troviamo il vaporware, ovvero tecnologie annunciate ma mai arrivate, e la prima release di un software, raramente completa. Gartner raccomanda ai produttori di tecnologia di comunicare apertamente quello che verrà rilasciato, compresi gli accordi sui livelli di servizio, indicando tempestivamente qualsiasi modifica.
Il livello 1 prevede la Vigilanza Etica, un monitoraggio delle conseguenze con comitati ed organizzazioni di utenti finali. Alcune aziende l'hanno già fatto, ma sono casi rari.
Gartner consiglia di stabilire le pratiche di governance, rendendo l'etica una parte del governo attraverso l'individuazione e la discussione di dilemmi creati dalle nuove tecnologie.

Programmazione etica ed autoprogrammazione
La Programmazione Etica viene introdotta al livello 2. Al momento siamo in questa fase di implementazione, con macchine intelligenti e assistenti personali virtuali. Qui l'utente è più spesso un cliente, cittadino o consumatore, in controllo delle operazioni.
La responsabilità è condivisa tra l'utente, il fornitore di servizi e il designer.
Gli utenti sono responsabili del contenuto delle interazioni che aprono (ad esempio una ricerca o una richiesta), ma non della risposta che ricevono. A sua volta, al progettista compete l'esame delle conseguenze non intenzionali di uso della tecnologia (entro limiti ragionevoli). Il fornitore di servizi, infine, ha la chiara responsabilità della corretta divulgazione della tecnologia, dell'interazione etica con gli utenti e del monitoraggio di usi e comportamenti.
Il passo successivo prevede una Programmazione Etica Evoluzionaria, per una macchina che impara e si evolve. Più una macchina intelligente impara, più si discosta dal suo design originale, e più il suo comportamento diventa individuale: l'utente non ha più il controllo generale. Dato l'effetto delle tecnologie intelligenti sulla società, il livello 3 richiederà moltissima nuova regolamentazione e legislazione.

Gartner raccomanda ai Cio molta attenzione nella programmazione, soprattutto a lungo termine, per le tecnologie autonome che agiscono per conto del proprietario.
Una macchina intelligente può accedere alla carta di credito di un dipendente? C'è differenza tra carta personale e carta aziendale? O dovrà avere una propria carta di credito?
Molto lontano è il livello 4, nel quale ci si basa su un'Etica sviluppata dalle macchine. Ovviamente Gartner non si aspetta che le macchine intelligenti diventeranno consapevoli di sé a breve tempo.
"Come faremo a mantenere le macchine sulle loro responsabilità? Le tratteremo come animali domestici, lasciando le responsabilità ai proprietari? Oppure come bambini, allevandole fino a che saranno in grado di farcela da sole?", ha detto Buytendijk.

Cibo per le macchine
Far crescere il senso di responsabilità delle macchine è un po' come far crescere il corpo umano. Nutriremo l'etica delle smart machines come nutriamo noi stessi, i nostri animali, i nostri figli? Speriamo di no.
Proviamo a spiegare il perché con l'esempio delle farine. Molti credono che esistano solo la 00 e la 0; alcuni si rendono conto che c'è quella integrale, che fa bene ma è poco gradita al palato non educato (e al pizzaiolo). Quasi nessuno sa che esistono anche la 1 e la 2, ottimi compromessi tra nutrizione e lavorabilità, o che esistono anche altre farine (cereali, leguminose), semole, fecole ed altri preparati. Ma poiché si guarda al prezzo, modifichiamo la qualità dei materiali, il tempo e il costo delle fasi di lavorazione, finendo per proporre la cosa più semplice da fare e peggiore per la nostra salute.
E la farina 00 delle smart machine sembra proprio il vaporware.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here