L’intelligenza artificiale entra nei tribunali americani

Fra le tante applicazioni dell’intelligenza artificiale si segnala quella che il sistema giudiziario americano sta portando nei tribunali. Nelle assise statunitensi, notoriamente, gli imputati compaiono davanti a un giudice poco dopo essere stati arrestati. Il giudice stabilisce quindi una data di giudizio per l'imputato, che potrebbe essere di settimane o mesi. Il giudice deve poi decidere se l'imputato debba rimanere in carcere in attesa di processo o se possa essere rilasciato in condizioni di sicurezza fino alla data del tribunale.

Un aiuto al giudice per decidere

Molti tribunali utilizzano anche un sistema di cauzione. Questo è il caso in cui un giudice stabilisce una somma che l'imputato può pagare per evitare di dover rimanere in carcere in attesa del processo.

Con questo sistema i giudici spesso fissano un importo molto elevato di cauzione per gli imputati che ritengono abbiano un rischio elevato di non presentarsi al processo.

In alcuni tribunali i giudici stanno iniziando ad utilizzare i sistemi di Intelligenza artificiale per aiutare a decidere quando e per quanto tempo i giudicati debbano essere tenuti in custodia.

Per creare il sistema di intelligenza artificiale, i ricercatori usano i computer per analizzare i dati di migliaia di cause legali. I computer quindi utilizzano tali dati per prevedere se un imputato commetterà un nuovo reato o non tornerà in tribunale.

Il Public Safety Assessment

Un sistema di intelligenza artificiale utilizzato dai giudici statunitensi si chiama Public Safety Assessment. Lo strumento è stato sviluppato dalla fondazione privata Laura e John Arnold, con sede in Texas ed è stato concepito per fornire ai giudici le informazioni più obiettive a disposizione per prendere decisioni eque sui prigionieri. Il sistema è ora utilizzato dai giudici del New Jersey.

Il processo di valutazione inizia non appena l'indagato viene sottoposto a rilevamento delle impronte digitali, con l'inserimento delle informazioni in un sistema informatico centralizzato.

Alla prima udienza del carcere, gli imputati compaiono in videoconferenza e il loro punteggio di rischio viene presentato al giudice. Gli imputati con punteggi inferiori vengono spesso rilasciati sotto la supervisione del tribunale fino alla data successiva.

Il sistema mira anche a ridurre le sentenze distorte che potrebbero essere influenzate dalla razza, dal sesso o dall'aspetto di un imputato. I fattori di rischio utilizzati nella valutazione comprendono l'età e le condanne penali passate. Ma non comprendono la razza, il genere, il background lavorativo, dove una persona vive o se ha una storia di arresti.

Parere contro: così i tribunali diventano acritici

Alcuni critici affermano di temere che i dati alimentati dall'Intelligenza artificiale potrebbe finire per sostituire il giudizio di un giudice nelle decisioni preliminari e nelle sentenze. Altri paventano il pericolo che i giudici possano trovare facile abbandonare le proprie capacità di pensiero critico quando si presentano con quella che sembra una risposta facile.

La Fondazione Arnold chiarisce che la sua valutazione di pubblica sicurezza è concepita esclusivamente per il processo preprocessuale, non per essere utilizzata dai giudici per decidere sulle effettive pene detentive.

Il gruppo osserva inoltre che il funzionamento dell' impianto alimentato dall'intelligenza artificiale è soggetto a ispezione da parte di tutti. Non c'è alcun mistero su come si possa raggiungere un punteggio di rischio per un determinato convenuto.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here