AWS ha annunciato che i nuovi modelli AI di Meta, Llama 4 Scout 17B e Llama 4 Maverick 17B, sono ora disponibili come opzione completamente gestita e serverless in Amazon Bedrock.
Questi nuovi modelli di base (FM, foundation model) offrono capacità multimodali in modo nativo, con una tecnologia early fusion che può essere utilizzata per un preciso image grounding e per un’estesa elaborazione del contesto nelle applicazioni.
Llama 4 si avvale di un’innovativa architettura MoE (mixture-of-experts) che – sottolinea AWS – offre prestazioni migliori per le attività di ragionamento e comprensione delle immagini, ottimizzando al contempo costi e velocità. Questo approccio architetturale consente a Llama 4 di offrire prestazioni migliori a costi inferiori rispetto a Llama 3, con un supporto linguistico ampliato per applicazioni globali.
AWS mette in evidenza che i modelli erano già disponibili su Amazon SageMaker JumpStart e ora è possibile utilizzarli in Amazon Bedrock per semplificare la creazione e la scalabilità di applicazioni di AI generativa con sicurezza e privacy di livello enterprise.
Per quanto riguarda le differenze tra i due modelli, Llama 4 Maverick 17B è un modello nativamente multimodale con 128 esperti e 400 miliardi di parametri totali. Eccelle nella comprensione di immagini e testi, rendendolo adatto ad applicazioni versatili di assistenti e chat. Il modello supporta una finestra contestuale da 1 milione di token, offrendo la flessibilità necessaria per elaborare documenti lunghi e input complessi.
Llama 4 Scout 17B è un modello multimodale general-purpose con 16 esperti, 17 miliardi di parametri attivi e 109 miliardi di parametri totali che offre prestazioni superiori a tutti i precedenti modelli Llama, sottolinea l’azienda. Amazon Bedrock supporta attualmente una finestra di contesto di 3,5 milioni di token per Llama 4 Scout, con piani di espansione nel prossimo futuro.
AWS spiega che è possibile utilizzare le funzionalità avanzate dei modelli Llama 4 per un’ampia gamma di casi d’uso in tutti i settori:
- Applicazioni aziendali – Creare agenti intelligenti in grado di ragionare attraverso strumenti e flussi di lavoro, elaborare input multimodali e fornire risposte di alta qualità per le applicazioni business.
- Assistenti multilingue – Creare applicazioni di chat in grado di comprendere le immagini e fornire risposte di alta qualità in più lingue, rendendole accessibili a un pubblico globale.
- Intelligenza del codice e dei documenti – Sviluppare applicazioni in grado di comprendere il codice, estrarre dati strutturati dai documenti e fornire analisi approfondite su grandi volumi di testo e codice.
- Assistenza clienti – Migliorare i sistemi di assistenza con funzionalità di analisi delle immagini, per una risoluzione più efficace dei problemi quando i clienti condividono schermate o foto.
- Creazione di contenuti – Generazione di contenuti creativi in più lingue, con la capacità di comprendere e rispondere agli input visivi.
- Ricerca – Creare applicazioni di ricerca in grado di integrare e analizzare dati multimodali, fornendo approfondimenti su testi e immagini.
I modelli Llama 4 sono disponibili con un’esperienza serverless completamente gestita in Amazon Bedrock nelle regioni AWS US East (N. Virginia) e US West (Oregon). È inoltre possibile accedere a Llama 4 negli Stati Uniti Est (Ohio) tramite l’inferenza tra regioni.
Come sempre con Amazon Bedrock, si paga per ciò che si usa. Per ulteriori informazioni, è possibile consultare la pagina del pricing di Amazon Bedrock.
Questi modelli supportano 12 lingue per il testo (inglese, francese, tedesco, hindi, italiano, portoghese, spagnolo, tailandese, arabo, indonesiano, tagalog e vietnamita) e l’inglese per l’elaborazione delle immagini.
Maggiori informazioni su come utilizzare i modelli Llama 4 in Amazon Bedrock sono disponibili nel blog di AWS.









