Dell Emc, un’infrastruttura cinetica per server disaggregati

Dell Emc PowerEdge MX è un’infrastruttura modulare progettata per supportare workload tradizionali ed emergenti negli anni a venire

Come avviene il monitoraggio del tunnel del Monte Bianco

Atmb, la società di gestione del tunnel del Monte Bianco, usa Eaton e Modulo-C per il monitoraggio in tempo reale nelle reti edge
HPE infrastruttura componibile

HPE, l’infrastruttura componibile rende l’IT più semplice e veloce

Hewlett Packard Enterprise condivide la propria visione di come l'infrastruttura componibile renda l'IT più semplice e veloce per qualsiasi carico di lavoro
HPE

Intelligenza artificiale e storage, una visione comune

HPE InfoSight incorpora l’intelligenza artificiale nel sistema di storage HPE 3PAR, consentendo all'infrastruttura IT complessiva di auto-migliorarsi

Un supercomputer di HPE farà capire come funziona il cervello

Installato presso il Centro nazionale di supercalcolo svizzero a Lugano il supercomputer SGI 8600 personalizzato per gli studi sul cervello del Blue Brain Project dell'Ecole Polytechnique Fédérale de Lausanne

Datacenter in colocation, la crescita continua

Secondo Bcc Research i datacenter dove è possibile noleggiare spazio o larghezza di banda stanno aggiungendo valoro con l'implementazione di piattaforme di business intelligence. I vantaggi per i clienti

Microsoft colloca i data center in mare per raffreddarli

È passato alla Fase 2 il Project Natick di Microsoft, un'ambiziosa iniziativa che mira a installare e gestire data center sott’acqua

A Roma il nuovo data center campus di Aruba

L’Hyper Cloud Data Center Roma sarà il quarto data center italiano dell’azienda, completerà il network di data center italiani e servirà aziende e PA. Investimento da 300 milioni in cinque anni, 200 assunzioni

Dell, machine learning e intelligenza artificiale per i datacenter modulari

Al Technologies World Conference Dell ha presentato i nuovi datacenter focalizzati sui carichi di lavoro che coinvolgono intelligenza artificiale, machine learning e big data

Memoria disaggregata nei data center del futuro

Nei laboratori di IBM Research – Ireland si lavora a un prototipo per un nuovo paradigma architetturale per i data center, con l’idea di rompere le barriere fisiche del server disaggregagando i suoi componenti

Microsoft rafforza i data center con le Azure Availability zone

Microsoft mette a disposizione le Availability zone di Azure con lo scopo di proteggere i clienti dai possibili guasti a livello di data center

La digitalizzazione di Eni passa per big data e supercomputer

Sono oltre 150 i progetti digitali di Eni che con il nuovo supercomputer Hpc4 ha fatto un deciso salto di qualità per l'esplorazione dei nuovi giacimenti. Immagini 3D per 600 km quadrati fino a dieci km di profondità

Facebook

css.php