Home Aziende Cohere Oracle Cloud Infrastructure (OCI) introduce Generative AI, un servizio di AI generativa...

Oracle Cloud Infrastructure (OCI) introduce Generative AI, un servizio di AI generativa per le aziende

Oracle ha annunciato, nel corso di Oracle CloudWorld, la disponibilità limitata del servizio Oracle Cloud Infrastructure (OCI) Generative AI. Il nuovo servizio di AI generativa supporterà modelli di linguaggio di grandi dimensioni (LLM, large language model) per aiutare le organizzazioni ad automatizzare i processi aziendali end-to-end, perfezionare il processo decisionale e migliorare le esperienze dei clienti, garantendo al contempo la sicurezza e la riservatezza dei dati.

Creato su OCI in collaborazione con Cohere, OCI Generative AI è un servizio gestito che consente agli utenti di integrare LLM nelle proprie applicazioni tramite Api. Una volta che la disponibilità sarà generale, questo servizio e i modelli Cohere funzioneranno con AI Vector Search, una funzionalità di Oracle Database 23c che fornisce la Retrieval-Augmented Generation (RAG).

L’AI generativa eccelle nella creazione di risposte testuali basate su Large Language Model in cui l’IA viene addestrata su un’enorme quantità di dati, ma le informazioni utilizzate per generare la risposta sono limitate a quelle utilizzate per addestrare l’intelligenza artificiale, spesso un LLM generalizzato. I dati dell’LLM possono essere obsoleti e se utilizzati, per esempio, in un chatbot aziendale potrebbero non includere informazioni specifiche sui prodotti o servizi dell’organizzazione. Questo può portare a risposte errate che erodono la fiducia nella tecnologia da parte di clienti e dipendenti.

La RAG fornisce un modo per ottimizzare l’output di un LLM con informazioni mirate, più aggiornate dell’LLM e specifiche per una particolare organizzazione o settore senza modificare il modello sottostante e permettendo al sistema di AI generativa di fornire risposte più adeguate al contesto e basate su dati estremamente aggiornati.

Il concetto di RAG si è imposto all’attenzione degli sviluppatori di IA generativa dopo la pubblicazione di Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, uno studio del 2020 pubblicato da un team di Facebook AI Research, ora MetaAI.

Come funziona la RAG?

Considerate tutte le informazioni di cui dispone un’organizzazione: i database strutturati, i PDF non strutturati e altri documenti, i blog, i feed di notizie, le trascrizioni delle chat delle sessioni passate del servizio clienti. Nella RAG, questa grande quantità di dati dinamici viene tradotta in un formato comune e archiviata in una knowledge base accessibile al sistema di AI generativa.

I dati contenuti nella libreria di conoscenze vengono poi elaborati in rappresentazioni numeriche grazie a un embedded language model e memorizzati in un database vettoriale, che può essere rapidamente ricercato e utilizzato per recuperare le informazioni contestuali corrette.

Quando un utente finale invia all’AI generativa una richiesta specifica, la domanda viene trasformata in un vettore e utilizzata per interrogare il database vettoriale, che recupera le informazioni pertinenti al contesto della domanda. Queste informazioni contestuali e la domanda originale vengono poi inserite nel LLM, che genera una risposta testuale basata sia sulle sue conoscenze generalizzate, potenzialmente obsolete, sia sulle informazioni contestuali aggiornate.

Mentre il processo di addestramento dell’LLM generalizzato richiede tempo e denaro, gli aggiornamenti del modello RAG possono essere caricati nell’embedded language model e tradotti in vettori su base continua e incrementale. In effetti, le risposte dell’intero sistema di intelligenza artificiale generativa possono essere reinserite nel modello RAG, migliorandone prestazioni e accuratezza, perché, di fatto, sa come ha già risposto a una domanda simile.

Un ulteriore vantaggio di RAG è che, utilizzando il database vettoriale, l’IA generativa può fornire la fonte specifica dei dati citati nella sua risposta, cosa che gli LLM non possono fare. Pertanto, se c’è un’imprecisione nell’output dell’IA generativa, il documento che contiene l’informazione errata può essere rapidamente identificato e corretto, e quindi l’informazione corretta può essere inserita nel database vettoriale.

Oracle ha annunciato, sempre nel corso di Oracle CloudWorld, l’intenzione di aggiungere a Oracle Database 23c l’insieme di funzionalità denominato AI Vector Search, e che comprende un nuovo tipo di dati vettoriale, indici vettoriali e operatori SQL di ricerca vettoriale, che consentono a Oracle Database di memorizzare il contenuto semantico di documenti, immagini e altri dati non strutturati come vettori e di utilizzarli per eseguire rapide query di similarità.

 

Clay Magouyrk, executive vice president di Oracle Cloud Infrastructure

Le conoscenze in tutti i settori industriali uniche che ha Oracle ci hanno permesso di creare servizi di AI generativa all’avanguardia, che permettono alle organizzazioni di automatizzare i propri processi, prendere decisioni migliori e migliorare le esperienze che offrono ai clienti”, ha dichiarato Clay Magouyrk, executive vice president di Oracle Cloud Infrastructure. “Grazie alla nostra partnership con Cohere, i clienti saranno in grado di incorporare l’AI generativa in modo semplice e sicuro nel loro stack tecnologico, sicuri che le nostre soluzioni si allineeranno ai loro requisiti più rigorosi di sicurezza e privacy dei dati. Il nostro approccio consente inoltre alle organizzazioni di perfezionare questi modelli utilizzando i propri dati, affinché i modelli comprendano la loro operatività interna come nessun altro”.

Con la sua infrastruttura AI a basso costo, sicura e ad alta velocità, OCI consentirà ai clienti di utilizzare i modelli di Cohere come servizio gestito dedicato specificatamente ai casi d’uso aziendali. I clienti che utilizzano il servizio OCI Generative AI eseguono i propri carichi di lavoro in un’infrastruttura dedicata basata sull’architettura Supercluster AI di Oracle. In questo modo, i clienti possono controllare i propri requisiti specifici in termini di costi e throughput, indipendentemente dal fatto che stiano perfezionando i modelli con i propri dati o implementando propri modelli personalizzati.

Il nuovo servizio OCI di AI generativa include i modelli Command, Summarize ed Embed.

  • Command: questo modello genera testo su prompt di un utente. Disponibile in due dimensioni diverse, una da 52 miliardi di parametri e una da 6 miliardi di parametri. Il modello da 52 miliardi di parametri è il modello migliore e più avanzato di Cohere, mentre il modello da 6 miliardi di parametri avrà un prezzo inferiore. Command è personalizzabile per i casi d’uso aziendali, tra cui generazione di testo, sintesi di testo, RAG e chat.
  • Summarize: questo modello esegue un riassunto del testo e permette all’utente di configurare i risultati con una vasta gamma di parametri per supportare casi d’uso specifici. Ad esempio, è in grado di sintetizzare documenti complessi per i team legali, la documentazione del supporto tecnico per i rappresentanti del servizio clienti e lunghe catene di e-mail per le persone più oberate. Per la versione beta, viene esposto un modello di riepilogo con 52 miliardi di parametri.
  • Embed: questo modello di rappresentazione del testo traduce il testo in vettori numerici che i modelli possono comprendere. Utilizzando il modello Embed, è possibile trasformare il testo, sia esso una parola, una frase o un pezzo di testo più ampio, in una rappresentazione numerica semantica di vettori ad alta dimensionalità. In altre parole, il vettore di numeri generato rappresenta il significato del testo. Questo strumento consente di effettuare la classificazione del testo, il clustering e persino la ricerca semantica. Offre modelli tra i migliori del settore, sia in inglese sia multilingue (oltre 100 lingue disponibili), per una vasta gamma di casi d’uso, come ricerca semantica, classificazione del testo, motore di ricerca per RAG e miglioramento delle ricerche legacy.

In Oracle e Cohere basiamo la nostra offerta AI aziendale sui principi della sicurezza dei dati, della personalizzazione dei modelli e della latenza, e aiutiamo le aziende a implementare la tecnologia AI in modo rapido, sensato, economico e responsabile”, ha dichiarato Martin Kon, presidente e COO di Cohere. “Stiamo lavorando a stretto contatto con Oracle per consentire alle aziende di potenziare il proprio business con l’intelligenza artificiale, con un approccio incentrato su sicurezza dei dati e privacy”.

Oracle è stato un partner prezioso per Altair e, considerato l’interesse dell’azienda verso la scienza computazionale e l’intelligenza artificiale, abbiamo iniziato a integrare modelli di linguaggio di grandi dimensioni nelle nostre soluzioni per via della loro promessa trasformativa”, ha dichiarato Sam Mahalingam, chief technology officer di Altair. “Crediamo che l’AI generativa trasformerà il modo in cui lavoriamo. Ad esempio, i clienti saranno in grado di descrivere il risultato desiderato nel formato del linguaggio naturale e un LLM produrrà automaticamente delle soluzioni. Nel data analytics, i clienti non dovranno più codificare il machine learning, ma semplicemente chiedere le previsioni. Nell’ingegnerizzazione, i clienti possono descrivere le proprietà del prodotto e i modelli si occuperanno della progettazione. Le applicazioni sono illimitate”.

L’integrazione dell’AI nelle applicazioni SaaS

Generative AI costituirà anche la base per funzionalità di intelligenza artificiale generativa integrate nella suite Oracle di applicazioni SaaS.

Giovanni Ravasio e Andrea Sinopoli riassumono le novità di Oracle Cloud World
Giovanni Ravasio e Andrea Sinopoli riassumono le novità di Oracle CloudWorld

Lo annuncia Giovanni Ravasio, vice president e Cloud Applications Leader Italia e Iberia di Oracle, nel corso di un incontro con la stampa per fare il punto sugli annunci del recente  CloudWorld. I prossimi due aggiornamenti trimestrali delle applicazioni SaaS includeranno 50 nuove funzionalità AI, raggruppabili nelle categorie di Assisted Authoring, Suggestions e Summarization, ovvero ambiti in cui l’AI non si sostituisce all’utente nell’esecuzione di compiti, ma lo affianca e lo aiuta generando testi, riassumendoli, o suggerendo azioni, lasciandogli comunque l’ultima decisione.

Oltre alle novità sul servizio OCI Generative AI, l’AI di Oracle ha continuato ad aggiungere miglioramenti ai servizi esistenti con altri programmi per ora a disponibilità limitata, tra cui:

  • Oracle Digital Assistant: aggiunge funzioni di intelligenza artificiale generativa per consentire ai clienti di integrare LLM e altre funzionalità generative nei propri assistenti digitali. Inoltre, gli sviluppatori possono utilizzare l’intelligenza artificiale generativa per creare assistenti digitali in modo più rapido ed efficiente.
  • OCI Language Healthcare NLP: aggiunge insight sanitari all’elaborazione del linguaggio naturale. Questa nuova funzione del servizio OCI Language consente di elaborare meglio il linguaggio medico. I nuovi modelli aiuteranno a riconoscere termini medici, relazioni ed entità in documenti come le note sui trial clinici e sui progressi dei pazienti e le cartelle cliniche elettroniche.
  • OCI Language Document Translation Experience: aggiunge una nuova funzione di traduzione dei documenti per supportare una vasta gamma di formati: Word, PPT, HTML, JSON ed Excel, garantendo al contempo che il contenuto rimanga intatto e tradotto in diversi tipi di file.
  • OCI Vision: aggiunge il riconoscimento facciale, acquisendo la capacità di riconoscere volti e caratteristiche facciali nelle immagini e ampliando il numero di casi d’uso di OCI Vision.
  • OCI Speech: aggiunge la “diarizzazione” (ossia la possibilità di partizionare uno stream audio in segmenti omogenei in base all’identità di ciascun parlante), consentendo anche di integrare le informazioni delle persone che parlano nelle sezioni trascritte dell’audio. La diarizzazione rende OCI Speech uno strumento prezioso per l’organizzazione, l’analisi e l’estrazione di informazioni significative dalle interazioni orali.
  • OCI Data Science: aggiunge Feature Store, un repository centrale utilizzato per gestire le funzioni sviluppate dai team di data science. Feature Store fornisce una struttura coerente in cui le funzionalità sono meticolosamente documentate, condivise, memorizzate e servite in un modo semplificato.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php