Chi risponde se l’auto a guida autonoma sbaglia? Riflessioni giuridiche su responsabilità e intelligenza artificiale

GiurisApp

In questi articoli vi racconteremo le stranezze e le sfide giuridiche legate all’intelligenza artificiale e alla tecnologia, tra casi reali, zone grigie e domande che – spoiler – spesso non hanno ancora una risposta definitiva. Lo ammetto, ho una passione per i problemi legali che nascono dove la tecnologia corre più veloce della legge

Un’ auto frena da sola, cambia corsia da sola, si parcheggia da sola. Ma se sbaglia… chi paga?

Può sembrare una domanda da film di fantascienza, e invece è un dilemma giuridico già attuale. Le auto autonome – o meglio, automatizzate – stanno diventando sempre più presenti sulle nostre strade, e con loro anche i dubbi su chi sia il vero responsabile in caso di incidente.

Questa domanda non è solo accademica. Con il progressivo diffondersi di veicoli autonomi – o meglio, automatizzati – il nostro ordinamento (come anche quello europeo) si trova di fronte a un terreno giuridico ancora in parte inesplorato.

Un codice civile “umano” per veicoli non umani

Il Codice Civile italiano infatti fonda la responsabilità extracontrattuale principalmente sull’art. 2043 c.c., che richiede la colpa (intesa come negligenza, imprudenza, imperizia). In sintesi il nostro ordinamento è abituato a pensare che dietro a ogni errore ci sia una persona in carne e ossa.

Tuttavia, in ambito di circolazione stradale, si applica anche l’art. 2054 c.c., che prevede una responsabilità oggettiva del conducente del veicolo: chi guida è responsabile anche se non ha commesso colpa, solo per il fatto di essere al volante, salvo che provi il caso fortuito.

Tre possibili “colpevoli”

Ma quando il “conducente” è un sistema software basato su intelligenza artificiale, chi risponde?

In caso di incidente, possono emergere tre soggetti potenzialmente responsabili:

  1. Il produttore dell’algoritmo: è colui che ha progettato il “cervello” del veicolo. Se l’errore dipende da un difetto nel codice, da una decisione computazionale errata o da un addestramento su dataset inadeguati, si potrebbe ipotizzare una responsabilità dell’ingegnere del software per il prodotto difettoso (ai più curiosi consiglio di leggere la nuova Direttiva UE sulla responsabilità per danno da prodotti difettosi [https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202402853]);
  2. Il costruttore/assemblatore del veicolo: se l’auto integra un sistema AI senza adeguati test, senza ridondanze di sicurezza, o con componenti incompatibili, si può profilare una responsabilità dell’impresa che ha “costruito” e “assemblato” la macchina;
  3. Il passeggero umano (che tecnicamente sarebbe il “conducente” anche se non tocca il volante): in caso di guida assistita (livelli SAE 3, 4 o 5 -) [https://web.archive.org/web/20161120142825/http://www.sae.org/misc/pdfs/automated_driving.pdf], la normativa richiede che il conducente sia pronto a riprendere il controllo. Se non lo fa, per disattenzione o eccessiva fiducia nella macchina, può concorrere nella responsabilità per colpa (o, più drasticamente e meno probabilmente, essere l’unico responsabile). Ma è realistico pensare che una persona resti vigile per ore senza fare nulla? Se non interviene in tempo, potrebbe essere considerata colpevole.

Il paradosso della “colpa passiva”

Il vero nodo giuridico è che l’essere umano, almeno nei sistemi di guida semi-autonoma, è presente ma non agisce. Non guida, ma dovrebbe essere pronto a intervenire se il sistema fallisce. oggi all’essere umano si chiede una vigilanza passiva. Non guida, ma dovrebbe essere pronto a farlo se l’auto sbaglia. È una sorveglianza passiva, che non è naturale per la mente umana e che potrebbe, paradossalmente, diventare un’ipotesi di colpa: non hai guidato, ma avresti dovuto.

E allora: chi ha progettato l’interfaccia utente si è davvero chiesto se fosse fattibile aspettarsi una reazione così rapida? Era realistico pretendere che il passeggero intervenisse in una frazione di secondo? Queste domande saranno centrali nei contenziosi futuri.

 Verso una responsabilità “a catena”

Carlo Ciocca Giurisapp
Carlo Ciocca, avvocato e founder GiurisApp

Il diritto potrebbe evolvere verso una responsabilità a più livelli: una catena di responsabilità che include produttori di software, integratori di sistema, costruttori e, residualmente, l’utente finale.

Il nuovo AI Act europeo (https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689) e la proposta di AI Liability Directive (https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52022PC0496) spingono in questa direzione, imponendo obblighi di trasparenza, tracciabilità ed “explainability” degli algoritmi.

L’obiettivo? Capire chi doveva prevedere l’errore prima ancora di chiedersi chi deve risarcire.

 E in Italia, adesso?

“Oggi, un giudice italiano, in assenza di normativa specifica, dovrebbe ricorrere alle norme generali, applicando per analogia le regole sul produttore, sul conducente e sul proprietario del veicolo. Ma il contenzioso potrebbe diventare complesso, specie se coinvolge software sviluppati all’estero e dati non accessibili.

Il diritto dovrà decidere chi risarcisce delle conseguenze di quegli errori, ma ancor prima, chi li doveva prevedere. Il futuro della mobilità sarà anche autonomo, ma le responsabilità non lo saranno mai del tutto. E se un giorno le auto commetteranno “errori umani” senza essere umane, sarà il diritto a dover capire chi – davvero – doveva evitarli“, commenta Carlo Ciocca, avvocato e founder GiurisApp

La sfida non è solo tecnica. È anche, e soprattutto, giuridica.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

1 COMMENTO

  1. In attesa che vi sia un regolamento univoco e condiviso si dovrebbe vietare qualsiasi circolazione di autovettura a guida autonoma a meni che il proprietario non si assuma personalmente ogni responsabilità.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome