OpenAI è la società di ricerca senza scopo di lucro dedita a sperimentare un percorso verso un’intelligenza artificiale sicura. È stata fondata, ed è sostenuta, da Elon Musk, Sam Altman, Greg Brockman e altri protagonisti, nonché aziende, dell’attuale panorama delle più recenti tecnologie. Conta attualmente uno staff di circa 60 tra ricercatori e ingegneri.

La mission aziendale con cui OpenAI è stata forndata è quella di esplorare l’impatto che l’intelligenza artificiale può avere sull’umanità. Da un lato, queste tecnologie hanno in sé un enorme potenziale positivo. Dall’altro, potrebbero anche condurre al rischio concreto di causare danni alla società. Conducendo e pubblicando ricerche e analisi in proposito, OpenAI cerca di contribuire a uno sviluppo sano e sicuro dell’intelligenza artificiale.

L’ultima ricerca di OpenAI si è focalizzata sui modelli linguistici e sulle loro implicazioni. I ricercatori hanno addestrato un modello linguistico non supervisionato su larga scala che genera paragrafi di testo coerenti. L’intelligenza artificiale nell’esperimento ha raggiunto prestazioni allo stato dell’arte su molti benchmark di modellazione linguistica. E ha raggiunto risultati di comprensione rudimentale della lettura, traduzione automatica, risposta alle domande e riassunto. Il tutto, senza un training specifico per il task.

Un risultato che sembra confermare appieno sia gli entusiasmi sia i timori dei fondatori di OpenAI nei confronti dell’intelligenza artificiale. Da un lato, si tratta di un risultato entusiasmante. Dall’altro, non si può nascondere che provochi anche una certa preoccupazione e inquietudine.

Con OpenAI, la macchina diventa scrittrice

Il modello è stato chiamato da OpenAI GPT-2, successore più avanzato e articolato del primo GPT. Esso è stato addestrato semplicemente per prevedere la prossima parola in 40 GB di testo su Internet. L’azienda ha deciso di non rilasciare pubblicamente il modello addestrato, proprio a causa delle preoccupazioni riguardo alle possibili applicazioni dannose della tecnologia. A scopi di divulgazione, ha però rilasciato un modello molto più piccolo, oltre a un paper tecnico. Ciò, per consentire ai ricercatori di sperimentare con esso.

GPT-2 è un transformer-based language model di grandi dimensioni, con 1,5 miliardi di parametri. È addestrato su un dataset di 8 milioni di pagine web. Il training aveva un obiettivo semplice: prevedere la parola successiva, date tutte le parole precedenti all’interno di un testo.

GPT-2 mostra un ampio set di capacità, inclusa la possibilità di generare campioni di testo sintetico condizionale di qualità senza precedenti. Il modello viene innescato con un input scritto da un autore umano, ed esso genera una lunga continuazione del testo.

Inoltre, GPT-2 inizia ad apprendere attività quali la comprensione della lettura e il riassunto, dal testo non elaborato. Senza utilizzare dati di training specifici per questo task. GPT-2 genera campioni di testo artificiale in risposta al modello da cui si avvia, adattandosi allo stile e al contenuto del testo inserito. Ciò consente di generare prosecuzioni testuali realistiche e coerenti su un argomento a scelta.

Promettente ma da limare (e tenere sotto controllo)

L’intelligenza artificiale mostra un’abilità sorprendente a scrivere di qualsiasi argomento. OpenAI lo dimostra pubblicando alcuni esempi. Tuttavia (fortunatamente, potremmo aggiungere), non sembra ancora arrivato il momento in cui può avviare una propria carriera autonoma da scrittore o giornalista. Si verificano ancora errori grossolani nel testo, ad esempio quando scrive di fuochi che avvengono sott’acqua.

Comunque, questi stessi errori possono diventare, sottolinea OpenAI, un’area di ricerca per gli esperti che si occupano di linguaggio naturale. I ricercatori hanno notato che ci vogliono alcuni tentativi per ottenere un buon brano di testo. E che l’intelligenza artificiale sembra in grado di generare un testo ragionevole circa la metà delle volte. Tuttavia, su temi molto tecnici e specialistici, i risultati possono essere molto scadenti. Da queste osservazioni emerge che un fine-tuning potrebbe portare a un controllo ancora più dettagliato sul testo generato artificialmente.

Modelli linguistici d’uso generale potrebbero avere un forte impatto sulla società. Da un lato potrebbero portare ad applicazioni molto utili. Quali, ad esempio, sistemi di riconoscimento del linguaggio, traduzione automatica e assistenti vocali più efficaci.

Dall’altro, non è difficile immaginare possibili utilizzi malevoli e dannosi. Ad esempio impersonare altri online, generare articoli falsi, automatizzare la produzione di contenuti di spam e phishing. Ed è per questo che OpenAI ha rilasciato solo una versione ridotta di GPT-2 con codice d’esempio.

La descrizione completa e dettagliata di GPT-2 e gli esempi sono consultabili sul sito OpenAI, a questo link.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome