Le voci dell’AI – Episodio 12: La memoria di Claude

Ciao a tutti! Siamo arrivati all’episodio dodici di “Le voci dell’AI”.

Dopo gli ultimi episodi dedicati agli aspetti di business dell’AI, oggi cambiamo marcia e ritorniamo a parlare della tecnologia.

La settimana scorsa siamo stati inondati dagli annunci di alcune delle aziende più grandi del mondo. Come spesso succede nel mondo dell’AI, però, la stragrande maggioranza di questi annunci è pura apparenza.

I prodotti e servizi che sono stati dimostrati da queste aziende sono quasi tutti in anteprima limitata, disponibile solo dopo essersi iscritti a una lista di attesa, e solo se si viene selezionati.

E se si viene selezionati, potrebbe arrivare la richiesta di fare un passo di danza speciale per avere finalmente accesso a questo o quel prodotto.

Alcuni dei prodotti di cui avete letto la settimana scorsa non hanno nemmeno quello. Sono pure demo che potrebbero non vedere mai una commercializzazione su scala.

Negli ultimi due decenni, i fornitori tecnologici hanno annunciato le proprie soluzioni con un anticipo sempre crescente. Una volta i prodotti venivano annunciati e rilasciati al grande pubblico solo al raggiungimento di un livello di maturità ritenuto idoneo per una “General Availability” o GA.

Con l’avvento del cloud computing e del Software as a Service abbiamo visto i fornitori tecnologici cominciare ad annunciare e rilasciare soluzioni ancora nella fase beta del ciclo di sviluppo e quindi con una qualità non ottimale.

E oggi, agli albori dell’era dell’AI, vediamo gli stessi fornitori tecnologici annunciare, rilasciare soluzioni che sembrano ancora nella loro fase alfa o addirittura prototipi.

Perché? Perché la posta in gioco è altissima.

In un altro paio di generazioni i modelli di intelligenza artificiale generativa potrebbero diventare così sofisticati da permettere al primo che li inventa di raggiungere la cosiddetta velocità di fuga. Cioè quel momento in cui un’azienda raggiunge un livello di crescita esponenziale, riuscendo finalmente a operare su scala mentre continua a generare profitto e lasciando indietro la concorrenza.

Uno dei modi per contrastare un competitor ed evitare che raggiunga una velocità di fuga è quello di distribuire la propria tecnologia a quanti più utenti possibili il più velocemente possibile.

È così che è anche un concorrente tecnicamente meno capace riesce a dominare il mercato.

Anche se magari non sembra ad alcuni, qui la posta in gioco è un’AI che supporta ogni prodotto, ogni servizio e ogni attività umana nella sfera digitale, un misto tra i film “Her”, “Lei” nella versione in italiano e “Minority Report”, “Rapporto di minoranza” nella versione italiana, cioè una delle tecnologie più lucrative mai inventate dagli esseri umani.

Più in anticipo questi fornitori tecnologici annunciano le proprie soluzioni di intelligenza artificiale e più speranze hanno di catturare utenti e rendere difficoltosa la migrazione verso la soluzione di un competitor.

Qual è la lezione? La lezione è che probabilmente non vale la pena prestare troppa attenzione agli annunci che inondano i nostri schermi, finché queste tecnologie non raggiungono un livello di maturità decente e cominciano ad essere adottate dai clienti per casi d’uso reali in produzione.

Ma se proprio volete prestare attenzione agli annunci, l’unico rilasciato la settimana scorsa, che secondo me vale la vostra attenzione, è quello della startup Anthropic che ho già menzionato nell’episodio 3 e nell’episodio 5.

Anthropic è una startup in California che ha ricevuto l’investimento di trecento milioni di dollari da Google per il suo modello di AI chiamato Claude.

E questo nonostante Google abbiamo una miriade di modelli sviluppati in casa: Bard, il nuovo PaLM 2, e il modello che sta per arrivare dalla divisione DeepMind: Gemini.

La settimana scorsa Anthropic ha rilasciato una nuova versione di Claude che offre, prima di qualunque altro concorrente, una cosiddetta context window di 100.000 token.

Che cos’è una context window? È un po’ come la memoria a breve termine per gli esseri umani, quella porzione del cervello che ci aiuta a ricordare le informazioni che ci servono per sostenere una conversazione con un’altra persona per un periodo di tempo o per eseguire un’azione complessa come andare in un’altra stanza per prendere un oggetto che ci serve; senza una memoria a breve termine dimenticheremmo quello che stavamo dicendo o perché siamo andati in un’altra stanza.

In questa mia analogia molto imperfetta, quella memoria a breve termine è chiamata context window per i modelli di AI e oggi il modello di AI più capace, GPT-4, ha una memoria a breve termine di soli 8.000 token.

Ricordate, 100 token corrispondono a circa 75 parole e quindi 8.000 token sono circa 6.000 parole. È un po’ pochino.

Ecco perché una conversazione con ChatGPT-4 o un altro modello di che si protrae per più di cinque minuti comincia a diventare stramba. L’AI perde la memoria di quello che è stato detto fino a quel momento e comincia a ripetere le stesse cose già dette o si contraddice con un’affermazione contraria a quelle fatte in precedenza o non ricorda un’informazione che abbiamo condiviso.

A breve OpenAI rilascerà una versione di GPT-4 con una memoria a breve termine di 32.000 token, abbastanza da ricordare il contenuto di metà di un libro di media grandezza che trovate in libreria.

E questa funzionalità farà un’enorme differenza in termini di quello che si può fare con l’AI.

Per esempio, una context window così grande potrebbe contenere il documento con le linee guida della vostra azienda su come si scrivono i post di un blog o i comunicati stampa o le presentazioni per i clienti; e se l’AI è in grado di mantenere in memoria quel documento, la prossima volta che chiederete di generare un post, per esempio per annunciare un nuovo prodotto, GPT-4 sarà in grado di scrivere quel post, proprio come farebbe il vostro personale addetto alle pubbliche relazioni.

Ecco che però, prima ancora di avere accesso a questa nuova versione di GPT-4, Anthropic rilascia una versione di Claude con una context window abbastanza grande da memorizzare 100.000 token, cioè circa 75.000 parole.

Quello che si può fare con una memoria a breve termine così grande è fantascientifico: l’azienda stessa ci dà delle idee e ci fa vedere come Claude è in grado di memorizzare, per esempio, un bilancio aziendale di un’azienda quotata in borsa e di rispondere a qualunque domanda sullo stesso documento, proprio come farebbe un analista finanziario.

Nello stesso modo Claude potrebbe analizzare ricerche accademiche complesse o fare la revisione di una proposta di legge o di un documento legale o sostenere una conversazione con un paziente per ore, senza dimenticare nulla di quanto si è detto, o modificare un’applicazione esistente analizzando tutto il suo codice sorgente.

Se pensate di aver visto l’AI fare cose straordinarie, ricredetevi: non avete ancora visto niente. Quello che verrà avrà un impatto enorme sul modo in cui lavoreremo e sul tipo di lavoro che faremo in futuro.

Ci fermiamo qui per questa settimana. Come sempre, scrivetemi domande, commenti o suggerimenti per gli argomenti da trattare la prossima settimana.

Ciao!

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome