Si rafforza l’alleanza su Itanium tra Hp e Intel

Le due società rafforzano l’alleanza su processore di fascia alta, su cui Hewlett-Packard sta facendo convergere le sue soluzioni di business.

18 settembre 2003 Hp e Intel non solo hanno confermato ma appaiono rafforzare la loro strategia di sviluppo congiunto con l’intenzione di fare di Itanium e di una serie di architetture che Hp sta sviluppando, l’elemento portante della loro strategia di offerta nei prossimi anni. Gli annunci, sono stati fatti nel corso di una conferenza con la stampa europea svoltasi in Francia in Settembre. L’obiettivo dichiarato da HP è quello di arrivare a costituire delle architetture di riferimento, sulla falsariga di quanto già fatto con OpenView, nel segmento dei server ad alta capacità e nel settore dei data center mentre quello, non dichiarato, ma che traspare è l’intendimento di spostare in avanti il piano competitivo e rendere più difficile ai suoi concorrenti proporre soluzioni alternative altrettanto ampie e performanti.


Elemento portante di questa strategia si evidenzia sempre più essere il processore Itanium 2 che, in base ad una road-map che la società ha dichiarato di voler concludere entro il 2005, è avviato a diventare l’elemento di base di buona parte delle sue linee di server per l’ambito enterprise.


L’evoluzione strategica della società ci è stata confermata da Rudi Schmickl, Vice President per le soluzioni storage e server per l’ambito enterprise di Hp Emea. «La nostra strategia si sta sviluppando con una focalizzazione sulle esigenze del cliente e uno degli aspetti centrali che si evidenziano è che non è solo il costo ma anche una attesa di ritorno in termini di business quello che interessa i nostri clienti».


Hp si è posizionata come leader sia a livello di prodotto che di servizi e questo perché, ritiene Rudi Schmickl, si sta affermando un modello dove business e It sono perfettamente sincronizzati. Un caso tipico e molto generalizzato è se si pensa ad un data center, dove gli apparati si possono avere dal fornitore in due o tre giorni ma dove cambiare l’intera struttura può richiedere anche dei mesi.
Per HP la risposta a queste esigenze di business, ha continuato Schmickl, è il concetto di adaptive enterprise, una evoluzione concettuale che ritiene molto simile a quello che si è verificato quando si è passati negli anni 70 dal batch processing all’on line e che è alla base degli sviluppi architetturali di Hp.


Quello che Schmickl non dice, ma che non è difficile leggere tra le righe, è che sviluppare una piattaforma di offerta globale per l’adaptive enterprise ritiene sia una cosa che solo società con un presidio tecnologico a 360° può fare e che quindi costituisca un atout molto importante per incrementare la sua quota di mercato.


Gli elementi portanti della strategia per l’adaptive enterprise sono però molto chiari e Schmickl ce li ha indicati in una standardizzazione delle soluzioni, con una crescente caratterizzazione in termini di apertura. In pratica, una focalizzazione su sistemi operativi, processori (e in particolare Itanium 2) e tecniche costruttive (come ad esempio quelle a blade) che stanno diventando sempre più modalità diffusissime a livello enterprise.


Per apertura, invece, Hp intende soluzioni basate su standard di mercato sia come piattaforme che come strumenti di gestione di ambienti IT che possano inglobare prodotti anche di terze parti. Evidente nella strategia appare comunque la volontà di giocare su un’offerta tecnologica che, dopo l’acquisizione di Compaq, è diventata una tra le più ampie al mondo e dove l’adozione del concetto di “openess” le può permettere di ampliare le sue quote di mercato che, peraltro, sono già ampie.


Strategia che comunque non può evidentemente far a meno di considerare l’elemento costi, uno dei motivi questi che appare aver contribuito alla definizione di una road map che, come accennato, già entro il 2005 porterà, secondo quanto illustratoci da Schmickl, a unificare su un’unica piattaforma una proposta di mercato che ora vede, nella sua offerta di soluzioni, server basati su una varietà di processori a 64 bit, dall’Alpha al Risc al Mips, per approdare a una famiglia di server utilizzante processori Intel.


A parte l’economia di scala a livello produttivo e per il supporto delle linee di prodotto, una tale evoluzione renderà possibile ai suoi clienti pianificare o riallocare più facilmente le soluzioni installate, un obiettivo di razionalizzazione questo, che è sempre più sentito a livello azienda.

Un altro elemento della strategia di mercato di Hp è poi la virtualizzazione, che Schmickl ha confermato essere uno degli aspetti che Hp intende perseguire in modo massiccio sia a livello di soluzioni server che di soluzioni storage, con l’ulteriore integrazione dei sistemi relativi all’interno di strumenti di gestione evoluti basati su OpenView e tali, quindi, da permettere non solo la virtualizzazione delle risorse a livello di singolo Data Center ma anche a livello dell’intero ambito geografico coperto a livello enterprise.


Se concentrazione su Itanium 2 e virtualizzazione sono due degli elementi chiave nella road map, una accelerazione Hp la sta dando anche al rilascio di nuove soluzioni per specifici ambiti di mercato, in base a partnership con leader di altri settori di mercato.

La società ha infatti annunciato il rilascio di una soluzione Nas che è stata progettata espressamente per trovare applicazione nell’ambito di Microsoft Windows Server e una nuova workstation zx2000 basata su Itanium 2 a 1 GHz a cui la società attribuisce un incremento di performance del 10%. In novembre verrà poi lanciata una nuova famiglia di server Integrity a 8 e a 16 bit che andranno a posizionarsi tra i server di fascia inferiore a 2 e 4 processori e la piattaforma Integrity Superdome a 32 e 64 processori.


Focalizzazione sulla famiglia di processori Intel, virtualizzazione e sviluppo di sistemi aperti non appaiono però essere prerogativa della sola Hp ma, come tutte le evoluzioni di mercato derivate da esigenze dei clienti e da fattori economici, sono perseguite al momento anche da buona parte dei suoi potenziali concorrenti, sia settoriali che globali.

Va osservato poi che la standardizzazione e l’apertura delle soluzioni è un’arma a doppio taglio che permette si di entrare in nuove aree di mercato ma espone il fianco ad una concorrenza che comunque diventa anch’essa sempre più agguerrita.


Lo spostare in avanti sul piano architetturale, sia con soluzioni per data center in grado di riallocare in modo dinamico le risorse elaborative e di storage e l’adozione della famiglia di processori Intel abbinato agli sviluppi di architetture di grid computing, che non sono molte le società in grado di finanziare, potrebbe però fare, in questo caso, la differenza.


Se quella nel grid computing è una strategia perlomeno di medio termine ed interessante inizialmente solo le maggiori corporate o il mondo dei service provider, quella di soluzioni di “Utility Data Center” puntano però all’immediato e appaiono essere in effetti una soluzione razionale ad esigenze di ottimizzazione delle infrastrutture e dei costi. In sostanza una risposta concreta alle esigenze in termini di Roi e di Tco che turbano i sonno di non pochi responsabili dei sistemi informativi.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome