Akamai sposta il baricentro dell’intelligenza artificiale. Con il lancio di Akamai Inference Cloud, la società inaugura una piattaforma che porta l’inferenza AI dal data center al margine della rete, ovvero là dove nascono i dati e dove si prendono le decisioni in tempo reale. L’obiettivo è abilitare la nuova generazione di agentic AI e physical AI, riducendo al minimo la latenza e migliorando la sicurezza delle applicazioni distribuite.
L’annuncio, dato il 28 ottobre 2025, segna un passaggio strategico nella visione di Akamai: usare la propria infrastruttura globale come rete di calcolo distribuito per l’intelligenza artificiale. Insieme a NVIDIA, partner tecnologico del progetto, l’azienda ridefinisce dove e come l’AI viene eseguita, portando l’elaborazione più vicino agli utenti e ai dispositivi connessi.
Akamai Inference Cloud sposta l’AI verso l’edge
Akamai Inference Cloud nasce per rispondere a una trasformazione strutturale: le applicazioni di nuova generazione richiedono inferenza istantanea e contestuale, capace di adattarsi in tempo reale al comportamento e alla posizione degli utenti. La piattaforma consente di elaborare modelli AI a livello edge, avvicinando la capacità decisionale a chi utilizza servizi e dispositivi, e distribuendo la potenza di calcolo in migliaia di nodi in tutto il mondo.
Come ha spiegato il CEO e co-fondatore Tom Leighton, “la prossimità agli utenti è ciò che ha reso Internet la piattaforma globale che conosciamo oggi. Ora quella stessa logica serve per scalare l’intelligenza artificiale. Con NVIDIA stiamo portando l’inferenza AI in migliaia di location nel mondo, garantendo risposte più rapide, intelligenti e sicure.”
L’infrastruttura NVIDIA per l’AI distribuita
Il cuore tecnologico di Akamai Inference Cloud è costruito su infrastruttura NVIDIA Blackwell, che comprende GPU RTX PRO 6000 Server Edition, BlueField-3 DPU e software NVIDIA AI Enterprise, integrati con l’architettura distribuita di Akamai e oltre 4.200 punti di presenza globali.
La sinergia con NVIDIA BlueField-4 – annunciata di recente – permetterà di accelerare ulteriormente i carichi di inferenza e di proteggere i flussi di dati sensibili dal core all’edge. Come ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA, “l’inferenza è diventata la fase più intensiva del ciclo AI. Con Akamai la stiamo portando vicino agli utenti, aprendo la strada a una nuova generazione di applicazioni intelligenti e scalabili.”
Dall’agente intelligente alla Physical AI
Le prime applicazioni concrete sono già delineate. Akamai Inference Cloud consente di estendere le cosiddette AI Factory aziendali fino al margine della rete, permettendo a smart agent e sistemi di e-commerce di reagire istantaneamente al contesto dell’utente.
Nei contesti finanziari, la piattaforma abilita streaming inference e decisioni real-time per il rilevamento frodi o i pagamenti ad alta velocità, grazie a un’architettura nativa per la bassa latenza. Nei settori industriali e urbani, Akamai punta invece sulla Physical AI: veicoli autonomi, robot e infrastrutture intelligenti che richiedono decisioni a millisecondi per interagire in sicurezza con il mondo fisico.
Orchestrazione intelligente e rollout globale
Akamai Inference Cloud gestisce l’intero ciclo di inferenza attraverso uno strato di orchestrazione intelligente che assegna i carichi di lavoro alla posizione più efficiente. Le operazioni di routine vengono elaborate localmente tramite i microservizi NVIDIA NIM, mentre le richieste complesse vengono indirizzate verso data center centrali. Tutto avviene in modo trasparente per gli sviluppatori e con una gestione unificata della piattaforma.
Il servizio è già operativo in venti località nel mondo e Akamai ha annunciato un’espansione progressiva nei prossimi mesi. Con questa iniziativa, l’azienda ribadisce la sua ambizione: creare la prima rete globale capace di eseguire inferenza AI su scala planetaria, abilitando modelli generativi, agentici e fisici con la stessa efficienza della distribuzione dei contenuti che ha reso Akamai un pilastro di Internet.
Una nuova architettura per l’AI planetaria
Con Inference Cloud, Akamai e NVIDIA propongono una visione chiara: l’intelligenza artificiale non sarà confinata nei data center, ma diffusa ovunque serva. Dal core all’edge, l’AI diventa un’infrastruttura distribuita, in grado di combinare latenza minima, sicurezza, scalabilità e prossimità all’utente. È il passo successivo verso un’AI che non solo genera, ma decide e agisce in tempo reale.






