Come Outposts porta on premise servizi, infrastruttura e modelli nativi AWS

Aws Outposts rack

Lo scorso dicembre, in occasione dell’evento re:Invent, AWS ha annunciato che entro la fine di quest’anno sarebbe stato disponibile il servizio Outposts. Il suo scopo è portare la stessa infrastruttura, le stesse API e gli strumenti che i clienti utilizzano su AWS presso qualunque sede del cliente. Per sapere in dettaglio di cosa si tratta e come poterlo implementare proponiamo qui di seguito un intervento di Matt Garman, Vice President AWS Compute Services.

A fronte all’annuncio di AWS Outposts, è stato riscontrato grande interesse da parte dei clienti, che hanno richiesto un’opzione AWS on premise per l’esecuzione di applicazioni che rispettino i requisiti di bassa latenza ed elaborazione dati a livello locale. AWS Outposts è un nuovo servizio il cui lancio è previsto a fine 2019. Si tratta di un servizio gestito in toto: l’infrastruttura fisica viene inviata e installata, gestita e monitorata da AWS e automaticamente aggiornata come parte integrante connessa a una Regione AWS.

È possibile utilizzare AWS Outposts per avviare una gamma di istanze Amazon EC2 (C5, M5, R5, I3en e G4, con e senza le opzioni di storage locale) e di volumi Amazon EBS. In aggiunta all’EC2 e all’EBS, si può anche avvalersi una vasta gamma di servizi AWS a livello locale su Outposts. Secondo la disponibilità generale, i servizi AWS supportati a livello locale su Outposts includeranno i cluster Amazon ECS e Amazon EKS per le applicazioni container-based, i cluster Amazon EMR per data analytics e le istanze Amazon RDS per i servizi di database relazionali. Servizi aggiuntivi come Amazon SageMaker e Amazon MSK saranno resi disponibili dopo il lancio.

Estensione di una Regione AWS nel data center locale

Un Outpost funge da estensione di una Regione AWS all’interno del proprio data center; i servizi eseguiti sull’Outpost funzionano perfettamente con qualunque servizio o risorsa AWS in esecuzione su cloud. Per esempio, è possibile utilizzare la connessione privata sui bucket S3 o sui DynamoDB table di Amazon nella Regione pubblica. Gli strumenti Amazon funzioneranno anche con gli Outpost. Le chiamate API si registreranno automaticamente tramite CloudTrail e i template CloudFormation saranno ugualmente funzionanti.

Matt Garman AWS
Matt Garman: "Quando AWS lancerà nuove funzionalità, queste funzioneranno con gli Outpost, così che i clienti possano sempre trarre vantaggio dalle ultime tecnologie"

Amazon è in grado di dialogare con clienti operanti in settori verticali inclusi il manifatturiero, la sanità, i servizi finanziari, media e intrattenimento e il settore delle telecomunicazioni interessati a Outpost per i loro ambienti connessi.

Uno degli scenari più comuni è quello delle applicazioni che necessitano di una latenza ridotta misurata in millisecondi a cifra singola per gli utenti finali o per le apparecchiature on-site. I clienti potrebbero aver bisogno di eseguire carichi di lavoro ad elaborazione intensiva nei loro stabilimenti di produzione, con precisione e qualità.

Altri hanno applicazioni grafiche complesse come l’analisi d’immagine che richiede un accesso a bassa latenza per gli utenti finali o carichi di lavoro ad alta intensità di archiviazione che raccoglie ed elabora centinaia di TB di dati al giorno. I clienti vogliono integrare le loro implementazioni cloud con i propri ambienti on-premise e utilizzare i servizi AWS per un’esperienza ibrida coerente.

Gestione centralizzata di sedi remote

Alcuni clienti sono anche interessati a sfruttare i servizi AWS in ambienti non collegati come le navi da crociera o località minerarie isolate. Per questi tipi di ambienti, AWS offre Snowball Edge, ottimizzato per operare in ambienti con connessione limitata o addirittura assente. Gli Outpost, comparati a Snowball Edge, sono ideati per essere eseguiti esclusivamente in ambienti connessi on-premise.

Un esempio è l’impiego di Outpost da parte di un nuovo utente per il controllo e l’utilizzo di attrezzature industriali in centinaia di sedi in tutto il mondo. Vengono eseguite applicazioni centralizzate di decision-making su AWS per identificare quali operazioni e attività portare avanti e in quale sito. L’accesso prevedibile a bassa latenza alle risorse di elaborazione locali è essenziale per i sistemi di controllo on-premise e per la gestione dei materiali in modo fluido e rapido.

Per esempio, i sistemi di controllo devono elaborare flussi video per rilevare il prodotto sul nastro trasportatore ed eseguire un movimento robotizzato per indirizzarlo nella giusta posizione. I siti eseguono anche applicazioni di monitoraggio video in cui i dati catturati possono superare la larghezza di banda disponibile in modo da poter effettuare la codifica video on-premise.

Controllo totale del network virtuale

AWS ha lavorato insieme ai primi clienti per installare un rack Outpost in una delle loro sedi. Dopo aver collegato il proprio Outpost alla Regione AWS locale più vicina, il cliente dispone del totale controllo del proprio network virtuale, inclusa la selezione di una gamma di indirizzi IP, la creazione di sottoreti e la configurazione di route table e gateway di rete, proprio come con il loro Amazon VPC. Possono perfettamente estendere il loro VPC regionale all’Outpost creando una sottorete e associandola con l’Outpost nello stesso modo in cui oggi associano le sottoreti a un’Availability Zone.

Per avviare nuove istanze sul loro Outpost, utilizzano le medesime chiamate API adottate nelle regioni pubbliche, ma targetizzano la loro sottorete Outpost così che l’avvio delle istanze sull’Outpost avvenga nella loro struttura. Queste istanze verranno eseguite nel loro VPC esistente e potranno persino comunicare con le istanze in esecuzione all’interno della Regione pubblica attraverso indirizzi IP privati. Dal momento che l’infrastruttura è lo stesso hardware utilizzato nella Regione AWS pubblica, le applicazioni in esecuzione su queste istanze otterranno le stesse prestazioni della Regione pubblica. Per ottenere un accesso a bassa latenza all’elaborazione e archiviazione locali in esecuzione nella propria infrastruttura, è possibile creare un gateway locale nel proprio VPC che agevola l’Outpost nell’indirizzare il traffico direttamente alle reti di data center locali.

On premise e su cloud, stessa affidabilità e sicurezza

Con l’utilizzo di Outposts, il cliente può pianificare di standardizzare gli strumenti attraverso on-premise e su cloud, automatizzare le implementazioni e le configurazioni in centinaia di sedi facendo uso delle stesse API, le stesse concessioni IAM, gli stessi AMI EC2, gli stessi template CloudFormation e le stesse pipeline ovunque. Poiché gli Outpost sono aggiornati e costituiscono parte integrante delle operazioni regionali AWS, non hanno più bisogno di essere aggiornati e integrare la propria infrastruttura on-premise o essere inattive per manutenzione.

Con Outposts di AWS è possibile avere la stessa infrastruttura AWS, le stesse API, gli stessi servizi e gli strumenti per aiutare i clienti a costruire le applicazioni che possano funzionare in modo affidabile e sicuro sia su cloud sia presso le loro sedi.

Attraverso il seguente video è possibile avere maggiori dettagli sui rack Outposts.

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome