Nel 2025, l’evoluzione dell’Intelligenza Artificiale ha segnato un punto di svolta: il focus si è spostato dalla mera crescita dimensionale dei modelli verso una maggiore efficienza, specializzazione e autonomia operativa. I Large Language Models (LLM) si sono trasformati in strumenti più sofisticati e accessibili, tanto che tra i progressi più rilevanti spicca la diffusione dei Multimodal Large Language Models (MLLM), capaci di comprendere e generare testo, immagini e audio, ampliando in modo significativo le possibilità applicative. Il cambiamento più rivoluzionario, tuttavia, è rappresentato dall’affermazione dell’Agentic AI: sistemi in grado di ragionare, prendere decisioni ed eseguire autonomamente compiti complessi e multi-step. Si tratta di un’evoluzione che introduce di fatto veri e propri “colleghi virtuali” nei flussi di lavoro aziendali, ridefinendo il concetto stesso di collaborazione.
Parallelamente a questa accelerazione, temi come affidabilità, governance, mitigazione delle allucinazioni, responsabilità ed etica sono diventati centrali per garantire una diffusione più sicura e sostenibile dell’AI in tutti i settori.
Alla luce delle attuali pressioni economiche e di conformità, Multiverse Computing, ha identificato le tendenze chiave in ambito AI per il 2026.

“L’efficienza dei modelli, potenziata da tecniche avanzate di compressione e dall’edge computing, si sta affermando come la metrica chiave di utilità”, dichiara Román Orús, Cofounder e Chief Scientific Officer di Multiverse Computing. “Questa evoluzione riguarda sia applicazioni ad alto impatto in ambito governativo e difesa, sia l’esperienza individuale, con capacità di elaborazione direttamente sui dispositivi personali”.
L’era degli LLM locali: decentralizzazione e iper-personalizzazione per l’elettronica di consumo
Il settore sta entrando in una fase in cui gli LLM locali si affermeranno come veri concorrenti dei servizi basati su cloud. Questo cambiamento epocale è reso possibile da modelli di AI ultra-compressi, che favoriscono la transizione dal data center al dispositivo, rendendo l’Edge AI non solo praticabile, ma essenziale.
La decentralizzazione offrirà due vantaggi principali:
Iper-personalizzazione sul dispositivo
-
- . I produttori di laptop ed elettronica di consumo integreranno modelli compressi direttamente nell’hardware, creando assistenti digitali ultra-personalizzati che operano in locale, garantendo velocità di risposta e funzionalità anche offline.
Privacy come driver principale
- . Elaborando informazioni sensibili (tra cui conversazioni o documenti) direttamente sul dispositivo, gli utenti eliminano il rischio di fughe di dati e mantengono il pieno controllo, evitando le criticità legate ai provider cloud di terze parti.
Le architetture future introdurranno anche un’orchestrazione intelligente, con un piccolo “Router AI” capace di decidere se elaborare la richiesta localmente o indirizzarla al cloud per compiti più complessi.
Edge AI: dal cloud alla resilienza tattica
La corsa tecnologica si concentrerà sull’implementazione di LLM compressi direttamente sui dispositivi locali, spostando l’intelligenza avanzata dai cloud centralizzati verso il bordo della rete. Questo salto è reso possibile da tecniche di compressione evolute che riducono drasticamente dimensioni e requisiti computazionali, preservando al contempo un’elevata accuratezza operativa.
Tra le applicazioni chiave:
Difesa
-
- L’Edge AI è cruciale in contesti militari, dove le operazioni avvengono spesso in ambienti ostili con connettività limitata, rendendo impraticabile l’affidamento al cloud. L’integrazione dell’AI su droni, veicoli di terra, navi e sistemi indossabili garantisce resilienza operativa e rapidità decisionale, offrendo vantaggi che includono, ad esempio, il rilevamento delle minacce in tempo reale grazie a sensori intelligenti o la navigazione autonoma in scenari complessi.
Sanità
- Modelli ultra-compressi consentono di ottenere diagnosi elaborate e sintesi delle cartelle cliniche direttamente su workstation ospedaliere o cloud privati sicuri, mantenendo i dati sensibili all’interno del firewall. Questo approccio riduce costi e rischi, garantendo conformità normativa e diagnosi rapide e affidabili
LLM per la sovranità digitale nel settore pubblico
Il settore pubblico sta accelerando l’adozione di LLM compressi e self-hosted per rispondere alle esigenze di efficienza, velocità e sicurezza. Questi modelli supportano l’automazione di attività amministrative, la sintesi documentale e l’analisi delle consultazioni politiche, favorendo decisioni basate su evidenze concrete.
La spinta principale è la sicurezza dei dati e la sovranità digitale: i governi ospitano i modelli internamente, isolandoli da Internet e limitando l’accesso agli utenti autorizzati. Questo approccio riduce i rischi di esposizione, garantisce la conformità normativa e rafforza il controllo sulle informazioni sensibili.
L’imperativo della Green AI: il consumo energetico sotto esame
L’impronta energetica dell’AI è diventata una priorità globale, trasformando l’efficienza da sfida ingegneristica a obbligo normativo e ambientale. Secondo Goldman Sachs, infatti, entro il 2030 la domanda di energia dei data center crescerà del 165% proprio a causa dell’AI.
L’Unione Europea sta già intervenendo grazie all’AI Act, mentre dal 2026 arriveranno ulteriori pacchetti normativi per bilanciare competitività e decarbonizzazione.
Questa evoluzione impone a imprese e governi di privilegiare modelli che garantiscano le massime prestazioni con il minimo consumo energetico, allineandosi agli standard ESG e ai requisiti di reporting climatico. I modelli vincenti saranno quelli governati responsabilmente, facendo dell’efficienza la base della competitività nell’era dell’AI.







dove sono gli sviluppi in ambito didattico, museale, artistico. Possibile che sono temi affrenti alle istituzioni siano presi in esame, Sarà pur vero che le questioni belliche spostano le nostre attenzioni ma cosa rimane per l’Essere umano in se e per la sua, diciamo, evoluzione?