DeepL, leader globale dell’IA linguistica, annuncia oggi l’implementazione di NVIDIA DGX SuperPOD con sistemi DGX GB200. Grazie a questa innovativa piattaforma di calcolo, DeepL sarà in grado di tradurre tutto ciò che è su Internet in poco più di 18 giorni, processo che altrimenti richiederebbe 194 giorni di elaborazione ininterrotta.
Non si tratta solo di un grande passo avanti nelle capacità di ricerca e dei prodotti di DeepL, sottolinea l’azienda, ma è anche la prima volta che DGX SuperPOD con sistemi DGX GB200 viene implementato in Europa. Il nuovo supercomputer è già in funzione in Svezia presso EcoDataCenter, il partner di DeepL.
Ricerca e innovazione
Il nuovo cluster migliorerà le capacità di ricerca di DeepL: le nuove funzionalità generative, infatti, consentiranno alla piattaforma di IA linguistica di ampliare notevolmente la propria offerta di prodotti. Grazie a questa infrastruttura avanzata, inoltre, DeepL adotterà un approccio completamente nuovo all’addestramento dei modelli, che aprirà la strada a un’esperienza più interattiva per gli utenti.
Nel breve termine, afferma l’azienda, gli utenti potranno aspettarsi miglioramenti immediati in termini di qualità, velocità e naturalezza delle traduzioni, nonché più opzioni di interazione e nuove funzioni di IA generativa.
In futuro i modelli multimodali diventeranno lo standard di DeepL. L’obiettivo a lungo termine dell’azienda è ampliare ulteriormente le capacità generative e le opzioni di personalizzazione così da garantire un’esperienza utente su misura.
Progressi tecnici
Questa implementazione fornirà la potenza di calcolo aggiuntiva necessaria per addestrare nuovi modelli e sviluppare funzioni innovative per la piattaforma di IA linguistica di DeepL.
NVIDIA DGX SuperPOD con sistemi DGX GB200, con il suo design su scala rack raffreddato a liquido e la scalabilità per decine di migliaia di GPU, consentirà a DeepL di eseguire modelli di IA ad alte prestazioni essenziali per applicazioni generative avanzate. Terzo impiego da parte di DeepL di NVIDIA DGX SuperPOD, il nuovo supercomputer ora surclassa le capacità di DeepL Mercury, il suo predecessore di punta.
“Noi di DeepL siamo orgogliosi del nostro impegno costante nella ricerca e nello sviluppo, che ci ha permesso di fornire soluzioni che superano quelle dei nostri concorrenti. Quest’ultima implementazione consolida ulteriormente la nostra posizione di leader nel settore dell’IA linguistica” afferma Jarek Kutylowski, amministratore delegato e fondatore di DeepL. “Dotando la nostra infrastruttura di ricerca delle tecnologie più recenti, non solo miglioriamo la nostra offerta esistente, ma esploriamo anche nuovi prodotti interessanti. Il ritmo dell’innovazione nell’IA è più veloce che mai e integrare questi progressi nel nostro stack tecnologico è essenziale per continuare a crescere”.
Qualità di traduzione superiore per DeepL
Secondo l’azienda, l’implementazione di questi nuovi rack darà a DeepL una velocità e accuratezza senza precedenti. Tra le caratteristiche distintive dei nuovi cluster figurano:
- La traduzione dell’intero web in un’altra lingua, che al momento richiede 194 giorni di elaborazione ininterrotta, sarà ora realizzabile in soli 18 giorni e mezzo.
- Il tempo necessario per tradurre l’Oxford English Dictionary in un’altra lingua passerà da 39 secondi a due secondi.
- La traduzione di Alla ricerca del tempo perduto di Marcel Proust, il libro più lungo del mondo, sarà ridotta da 0,95 secondi a soli 0,09 secondi.
- Nel complesso, i nuovi cluster garantiranno una produzione di testo 30 volte superiore rispetto ai sistemi precedenti.
“L’Europa necessita di soluzioni di IA affidabili per mantenere il proprio vantaggio competitivo, promuovere l’innovazione e affrontare sfide complesse in tutti i settori” dichiara Charlie Boyle, vicepresidente dei sistemi DGX presso NVIDIA. “Sfruttando le prestazioni e l’efficienza della nostra infrastruttura di IA all’avanguardia, DeepL è pronta ad accelerare l’innovazione nel campo dell’IA linguistica e a offrire nuove esperienze straordinarie agli utenti in tutto il continente e oltre”.









