Le voci dell’AI – Episodio 01: Startup

Eccoci! All’inizio di febbraio Marcello Oddini, il direttore editoriale di 01net, mi scrive su LinkedIn e mi chiede se sono interessato a collaborare a un progetto sull’intelligenza artificiale. Ci penso trenta secondi e poi dico di sì.

Io ho appena finito nove anni di carriera in Red Hat dove mi sono occupato di strategia di business e prodotto per la loro divisione di automazione. L’ultimo anno di questi nove ho guidato lo sviluppo di un sistema di intelligenza artificiale realizzato in collaborazione con IBM Research. Questo sistema usa una nuova tecnologia nel mondo dell’AI chiamata Large Language Model. È la stessa tecnologia che usa ChatGPT. Sono sicuro che ne avete sentito parlare in abbondanza.

Alessandro Perilli

Alessandro PérilliAlessandro Perilli è un esperto di tecnologie emergenti e di frontiera. Negli ultimi nove anni, Alessandro ha lavorato in Red Hat come Senior Director responsabile per la strategia di business e prodotto nella divisione di automazione di Red Hat. Alessandro ha fatto parte del team che ha eseguito l’acquisizione di Ansible nel 2015 e del team che ha coordinato la fusione di Red Hat con IBM nel 2019. Prima di lasciare Red Hat, Alessandro ha lavorato per oltre un anno con l’ex CTO di IBM Watson e il suo team di Machine Learning engineering in IBM Research. In questo ruolo, Alessandro ha ideato un sistema di intelligenza artificiale per l’automazione del software basato su Large Language Models. Nella sua precedente esperienza, Alessandro ha lavorato in Gartner per oltre tre anni come Research Director dove si è focalizzato su cloud computing, enterprise IT management e automazione. Oggi scrive una newsletter dedicata all’intelligenza artificiale e il suo impatto sul mondo del lavoro e l’economia: Synthetic Work. Alessandro lavora anche ad H+, un progetto focalizzato sulle tecnologie per il potenziamento del corpo umano, come interfacce neurali, protesi cibernetiche, e ingegneria genetica. Alessandro ha registrato un brevetto per orchestrare soluzioni di sicurezza eterogenee e non interoperabili, e ha scritto un libro sulla sicurezza informatica.

Quella esperienza mi ha convinto di una cosa: l’intelligenza artificiale che stiamo vedendo oggi porterà secondo me a un cambiamento radicale nel mondo del lavoro: del tipo di lavoro che gli esseri umani fanno e di come definiamo il concetto di lavoro stesso.

Lo so. Siete scettici. Lo so che l’avete sentito già mille altre volte da mille altre persone.

Lo avete sentito, lo abbiamo sentito a proposito di quantum computing, a proposito di realtà virtuale, a proposito del metaverso.

E so pure che se vi dico che questa volta è diverso, mi rispondete: sì, l’abbiamo sentito anche questo. Quindi non dico niente.

Vi dico solo che la mia esperienza dell’ultimo anno, e tutto quello che ho imparato sull’intelligenza artificiale moderna negli ultimi sette anni – machine learning, deep learning, self supervised learning – mi hanno convinto a dire di sì a Marcello.

E quindi siamo qui. L’accordo è che mi vedrete in video ogni settimana per una pillola sull’intelligenza artificiale.

Di cosa parliamo? Non parliamo dell’aspetto tecnico dell’AI. Ci sono milioni di risorse online e articoli sulle cose più tecniche dell’AI, ma nessuna di queste cose può essere condensata in cinque, dieci minuti.

Invece parliamo dell’aspetto business dell’AI: chi usa l’AI per fare cosa? Quanto bene funziona, quanto è matura la tecnologia, quali sono le applicazioni delle varie industrie dell’economia come sanità, finanza, manifattura, governo, eccetera? Ho un milione di cose da farvi vedere, ma ho sprecato tutto il tempo per fare questa introduzione.

Quindi oggi parliamo di tre cose velocissime che mi hanno colpito questa settimana.

Al servizio dei lavoratori della conoscenza

Forse avete sentito parlare di Cathie Wood, la famosa investitrice americana alla guida di Ark Invest.

La scorsa settimana Cathie ha suggerito alle persone che la seguono di pensare all’intelligenza artificiale come una catena di montaggio per i lavoratori della conoscenza. Io li chiamerei più manipolatori di informazioni.

Ma è un discorso per un altro giorno: qui chiaramente Cathie si sta rivolgendo a tutti quelli che vedono l’AI come a una minaccia per i lavoratori. E questa cosa mi tocca particolarmente da vicino. Durante gli ultimi nove anni la domanda alla quale ho dovuto rispondere un’infinità di volte è stata: ma secondo te l’automazione sottrae posti di lavoro alle persone?

E per nove anni ho ripetuto costantemente la stessa risposta che è no.

È più realistico pensare all’automazione come uno strumento per scalare le capacità umane, che è un modo complicato di dire che l’automazione aiuta i lavoratori a fare più cose nella stessa unità di tempo.

Abbiamo speso fiumi di parole negli ultimi venti anni per descrivere un’infinità di metodi per scalare le infrastrutture IT, le applicazioni, i servizi. Ma in questi venti anni quasi nessuno si è preoccupato di spiegare come scalare le operazioni del personale.

Ora: automazione e intelligenza artificiale possono essere usate in maniera sinergica, ma non sono assolutamente la stessa cosa.

E una tecnologia può benissimo esistere senza l’altra; però l’analogia della catena di montaggio di Cathie suggerisce lo stesso punto: gli esseri umani possono usare l’AI per raggiungere livelli di produttività che consideravamo impossibili solo un anno fa.

Tremilacinquecento avvocati

La seconda cosa che voglio menzionare oggi: il secondo studio legale nel Regno Unito, Allen & Overy, ha rivelato al Financial Times che da novembre scorso i suoi tremilacinquecento avvocati usano l’intelligenza artificiale per le bozze di documenti legali per operazioni di grande importanza come fusioni e acquisizioni.

L’AI che sta usando questo studio legale è stata creata da una startup chiamata Harvey.ai, una delle startup che hanno ricevuto un’iniezione di capitali da OpenAI, la società che sviluppa ChatGPT.

Uno dei vantaggi nel ricevere capitali da OpenAI è che la startup beneficiaria riceve anche l’accesso ai modelli di intelligenza artificiale sviluppati da OpenAI prima di tutti gli altri sul mercato.

E come forse saprete, tutto il mondo sta aspettando di vedere cosa sarà in grado di fare GPT4.

Quindi perché questa storia è importante? Intanto perché è la prima conferma ufficiale dell’uso di un Large Language Model in un ambiente di business critico dove non c’è molto margine per gli errori. E non stiamo parlando di un piccolo studio legale, ma di uno studio internazionale di grande fama con più di due miliardi di fatturato.

E poi perché se la supposizione è corretta, ci dà un’idea del livello di maturità raggiunto da GPT4, il che ci porta a parlare della terza cosa di questa settimana.

Memoria da pesce rosso?

Uno dei limiti dei Large Language Model che abbiamo visto fino ad oggi, come GPT3 e ChatGPT è la quantità di informazioni che l’AI riesce a memorizzare durante una conversazione. 

Se io parlo con un’altra persona per un’ora e non uso termini troppo tecnici, posso aspettarmi che quella persona ricordi tutto quello che si è detto durante la nostra conversazione e che quindi ogni interazione faccia riferimento alle cose che ci siamo detti per un’ora nella maniera appropriata. Se invece parlo con un’AI tipo GPT3, dopo un certo numero di interazioni l’AI comincia a dimenticare quello che si è detto fino a quel punto e quindi comincia a contraddirsi o a ripartire da zero in certe affermazioni.

A causa di questo limite, le interazioni che abbiamo con i Large Language Model sono limitate oggi e non possiamo ancora usarli per applicazioni che richiedono un’interazione costante.

La quantità di informazioni che un sistema come GPT3 memorizza è chiamato in gergo tecnico context window.

Perché ne parliamo? Ne parliamo perché in uno dei documenti che openAI ha rilasciato recentemente a un numero ristretto dei suoi clienti, la società menziona un nuovo Large Language Model capace di un context window di trentaduemila token.

Ok. E quindi? E quindi un context window di trentaduemila token è quasi la metà delle informazioni contenute in un libro di media grandezza.

In altre parole, questo nuovo modello potrebbe essere in grado di memorizzare conversazioni di ore e usarle come contesto per le sue interazioni.

Ok, l’impatto di business qual è? Pensate, per esempio, alle applicazioni dedicate alla sanità; pensate un’applicazione che è in grado di conversare con persone anziane e tenere loro compagnia, magari per sollevare il morale o alleviare una sofferenza psicologica o incrementare la produttività dopo il pensionamento.

Oggi una conversazione di un’ora con un’AI produce risultati difficili da controllare. In qualche mese questa AI di nuova generazione, forse proprio GPT4, potrebbe finalmente essere usata in uno scenario come quello che ho descritto nel mio esempio.

Ok, ci fermiamo qui per questa settimana. Mandatemi un’email con i vostri commenti e le vostre domande.

E… ci vediamo la prossima settimana.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome