Home Interviste La complessità IT non fa paura a Kyndryl

La complessità IT non fa paura a Kyndryl

Il monitoraggio dei sistemi IT è fondamentale per non perdere il controllo di infrastrutture articolate e distribuite: l’esperienza e il supporto Kyndryl sono un aiuto ad affrontare la sfida

Una strategia in grado di far fronte alla complessità dell’infrastruttura IT è un tema tra i più urgenti all’ordine del giorno per i responsabili dei sistemi informativi. Una sfida destinata a crescere per impegno, di fronte alla quale non è più ipotizzabile temporeggiare in attesa di studiare un programma o cercare le relative disponibilità finanziare. Prima di vedere la situazione sfuggire di mano, con conseguenze imprevedibili ma certamente negative, è necessario passare all’azione.

Una partita dove è fondamentale anche poter contare sulle giuste competenze. Le stesse intorno alle quali Kyndryl ha costruito nel tempo la propria reputazione e dove il CTO Raffaele Pullo spiega come sia pronta a dimostrarlo affiancando le aziende più articolate ad avere sempre il controllo della situazione, sul fronte operativo e soprattutto su quello dei costi.

Come inquadra lo scenario attuale del mondo IT nella aziende medio-grandi?

Vediamo un’infrastruttura composta da singoli pezzi, con la tendenza a muoversi verso piattaforme. Cioè, i vendor guardano a pacchetti sempre più integrati a più livelli: infrastruttura, gestione, middleware, sviluppo.

Cosa ha determinato questa situazione secondo Kyndryl?

Se apro una qualsiasi console di uno dei principali fornitori cloud trovo tutto questo e altro; database, gestione dei dati, strumenti di gestione e monitoraggio. In più, una serie di applicazioni Saas o strumenti per costruire applicazioni. Il nostro obiettivo è uniformare, organizzare e fornire servizi di piattaforma riguardanti infrastrutture, governance, gestione di middleware e di tutti quegli oggetti utilizzati per sviluppare applicazioni.

Al centro di tutto naturalmente si trova il cloud, la relativa strategia sulla modalità e la conseguente strategia. Qual è il vostro ruolo?

Quando ragioniamo con un cliente per una trasformazione in cloud, teniamo conto di fattori che non riguardano solamente le infrastrutture o la gestione. Teniamo conto anche degli sviluppatori, perché avranno nuove esigenze.

Kyndryl
Raffaele Pullo

È possibile inquadrarle meglio, almeno a grandi linee?

Per esempio, se c’è un percorso di trasformazione dell’ingegneria applicativa, magari su container, allora c’è bisogno delle relative piattaforme, orchestrate da un Kubernetes like, Di conseguenza, anche la sicurezza va articolata in un certo modo, così come lo storage. Bisogna cioè guardare all’insieme Quando pensiamo di portare un’applicazione sul cloud, guardiamo anche all’intero processo di sviluppo retrostante e tutte le implicazioni.

Significa anche dover gestire da parte vostra una grande varietà di soluzioni. Come si è organizzata Kyndryl per riuscirci?

Kyndryl ha una rete di partner, tra i quali i maggiori hyperscaler. La maggior parte dei nostri clienti sono aziende medio grandi. Quindi, con esigenze complesse e soprattutto una componente legacy da considerare. Sono comunque un potenziale fattore distintivo perché è il patrimonio di informazioni storiche. Ci possono essere applicazioni, sistemi e dati che hanno bisogno di risiedere in aree on premise, altri che possono essere esposti a un cloud, probabilmente in maniera comunque molto protetta.

Proviamo a metterci nei panni di un’azienda di fronte a una trasformazione tanto urgente quanto impegnativa. Come potete supportarli?

Offriamo due tipologie di servizi, I managed service, dove il cliente ci affida le proprie infrastrutture e noi prendiamo in mano la gestione. In questo caso, a volte forniamo addirittura noi i prodotti e le tecnologie come parte integrante del servizio. Poi, i servizi project, dove progettiamo la realizzazione di qualcosa come una trasformazione in cloud o un’ottimizzazione, la cui gestione può anche essere affidata ad altri. In ogni caso, si parla di numeri importanti. Su scala globale, gestiamo dalle settecento alle ottocento mila virtual machine. Come facile intuire, abbiamo dovuto sviluppare un insieme di tecniche, di tecnologie e soluzioni utili a rendere questo sostenibile.

Quali sono le più importanti?

Per esempio, Multi Cloud Management Platform, una piattaforma multicloud costruita su quattro pillar, grazie ai quali costruire la soluzione in grado di mettere il cliente in condizione di lavorare con una logica integrata. Partiamo da un catalogo selezionato, attraverso il quale offrire accesso a qualsiasi servizio cloud, all’occorrenza personalizzato da noi. Significa per esempio non tanto fornire una virtual machine, è questione di pochi secondi, quanto invece garantirne la sicurezza, collegarla ai relativi servizi o fornitori. Non basta prendere il servizio, bisogna mettere in piedi la relativa macchina aziendale. Secondo Kyndryl, le risorse diventano veramente fruibili se riusciamo a riportarle in una logica di controllo in termini di sicurezza, di costi, di pianificazione. Altrimenti se posso comprare qualsiasi cosa, può anche succedere qualsiasi cosa.

Al passaggio successivo, cosa dobbiamo guardare?

Al controllo dei costi. Il cloud è meraviglioso, ma come tutte le cose meravigliose va tenuto sotto controllo con strumenti particolari. Credo che pochi di noi, per non dire nessuno, sia in grado di sapere quale bolletta della corrente pagherà a fine mese. Per quanto si consideri un’utility, lo saprò solo quando viene calcolato il consumo effettivo. In questo caso, Kyndryl mette in campo un sistema di controllo dei costi certi per capire chi ha comprato cosa, per quale progetto. Una struttura con il compito di confrontare il costo di un cloud provider, di un prodotto da un fornitore rispetto a un altro. Un aiuto a tenere sotto controllo i costi e magari assegnare dei budget per arrivare a politiche di controllo e di alerting sulla spesa.

Dopo, cosa viene?

I sistemi di raccomandazioni, un altro tema al quale teniamo molto. Si parla di AI-Ops ovvero le operations supportate da intelligenza artificiale. Kyndryl le trova utili per diverse ragioni, a partire dalla visibilità, per arrivare agli insight dai dati. Raccogliamo dati da anni e possiamo sviluppare intelligenze utili a prevenire dei problemi. Per esempio, per delle ottimizzazioni, anche integrate con gli strumenti nativi dei provider, per aiutare nelle utilizzazioni. È un aspetto molto importante, perché fa parte in qualche modo delle operations, dell’uso dei dati e degli analytics sui dati, ma si lega all’ottimizzazione del sistema, a quella dei costi e altro ancora.

Dove può tornare utile questo strumento?

Penso per esempio alla visibilità. In una logica prevalente hybrid cloud, per guardare a quali siano le mie applicazioni, quali gli oggetti e le infrastrutture su cui queste poggiano, quanto costano, qual è lo stato in quel momento, quanti ticket ho aperto, quante persone ho dedicato ai database, Sono tante le indicazioni utili per supportare la governance. Dobbiamo ricordare come tra i nostri clienti ci siano le principali banche, dove anche piccoli aggiustamento possono comportare grandi risparmi.

Manca ancora un elemento…

È il DevOps. Ogni cliente ha delle catene delle toolchain di DevOps per lo sviluppo, le build, il test automatico, il deployment. Quasi sempre, troviamo un ecosistema di sviluppatori applicativi, perché se è facile trovare un’unica organizzazione che gestisce l’IT, nello sviluppo è diverso. Anzi, nello sviluppo di applicazioni generalmente ci sono team dedicati a quelle interne, affiancate a quelle dei fornitori esterni. Questo significa dover mettere a disposizione degli strumenti di controllo comuni. In questo modo il cliente può avere tutta la situazione sotto controllo. Per capire quanto sia importante, pensiamo solo ai vecchi fermi periodici per gli aggiornamenti. Adesso l’operazione è praticamente continua ed è importante avere sempre una visione completa di tutta la catena dello sviluppo.

Come si mette in relazione tutto questo, dal punto di vista di Kyndryl?

Tanti aspetti, un’unica console. Così da controllare cosa viene acquistato, cosa e come deve essere messo in linea. Controllo dei costi certi, controllo dei budget. Poi, utilizzo dell’intelligenza artificiale e  degli analytics per la continua ottimizzazione e visibilità. Infine, DevOps, una visione integrata di tutti quegli strumenti e dati relativi delle proprie applicazioni. Anche per le applicazioni esterne.

In questo caso, come si procede? Usate i relativi strumenti o preferite mantenere i vostri?

Va sempre fatta una pianificazione, restando consapevoli. A volte Kyndryl aggiunge strumenti in sostituzione o in integrazione a quelli del cloud provider, mentre a volte usiamo quelli nativi. Non c’è una soluzione che vale per tutti. Io personalmente sono un fan dell’uso degli strumenti nativi, ma solo perché sono a portata di clic. Per garantire sempre la soluzione migliore per ogni cliente, abbiamo incontrato direttamente i principali cloud provider a livello internazionale per discutere con loro quali strumenti, secondo loro, potevano essere messi e integrazioni. Alcuni ce li hanno suggeriti loro, e quando noi oggi parliamo di tool di gestione sono proprio il risultato delle discussioni con i cloud provider.

La pervasività e relativa complessità dei sistemi IT portano anche a dover gestire una quantità di dati dove l’automazione è diventata indispensabile. Come vi muovete in questo contesto?

La realtà in effetti non è più sostenibile senza un supporto, e significa esattamente applicare i principi dell’IT anche alla gestione. Noi stessi la sfruttiamo, e abbiamo giornalmente migliaia e migliaia di automazioni che scattano. Per esempio, più della metà degli incident aperti sugli account a nostro carico viene gestito almeno in parte in automatico. Significa risolverlo direttamente, oppure aiutare l’assegnazione a un operatore con competenza adeguata. O anche solo fare un enrichment nell’analisi del problema prima che venga assegnato a qualcuno. Per noi prima di tutto, l’automazione è un elemento importantissimo, perché in sua assenza il sistema collasserebbe, ci vorrebbe una quantità di persone impensabile.

Dove si rivelano particolarmente utili le automation?

Può sembrare strano, ma una delle situazioni più diffuse riguarda le operation, e non solo per l’assistenza o la manutenzione preventiva. Ancora oggi molti problemi nascono da un banale disk full. Sembrerebbe una cosa sbagliata, eppure se non tengo sotto controllo lo spazio libero sui dischi nascono anche i problemi, perché magari ci sono delle aree temporanee. Poi c’è un altro tipo di automazione che abbiamo anche in parte toccato, quella relativa al DevOps. Quindi le pipeline. Che sottendono allo sviluppo, al test e al deployment dell’applicazione. Ma è applicare l’automazione sulle operations dove si guadagna di più e dove si ottiene un ritorno più alto.

Come si sviluppano e come si raggiunge l’affidabilità?

Anche in questo caso ci sono più punti fondamentali, in particolare tre. A partire dalla Data Insight. I dati, le informazioni utili individuare dove è più conveniente operare in termini di automazione. Banalmente, se vedo che ho una grossa quantità di ticket per disk full, significa dover sviluppare una relativa procedura. Devono essere però il dato e la relativa analisi l’aiuto per capire dove focalizzare l’automazione. Non bisogna dimenticare, anche l’automazione ha un costo per lo sviluppo e la gestione. Bisogna capire se convenga realmente.

Dopo, a cosa guardiamo?

Noi la chiamiamo zero touch delivery, ovviamente una desiderata gestione zero touch, Si parte dai dati, quindi si sviluppano le automazioni vere e proprie. Utilizziamo gli strumenti nativi di VMware Realize, Terraform. Ansible è invece uno degli strumenti centrali che usiamo per via della flessibilità e  automatizzare tutta una serie di operazioni

Infine, il terzo pillar?

Noi lo chiamiamo Agile, ed è legato all’organizzazione. Ci siamo resi conto di come non bastino strumenti e dati. Dobbiamo anche rivedere la modalità, dobbiamo modernizzare i processi e il modo in cui siamo organizzati. L’organizzazione tradizionale tipica era per tower tecnologico, cioè i team di gestione avevano gli esperti della rete, gli esperti di database, gli esperti Linux, ecc. Non è che questi non servano più. Solamente, abbiamo voluto introdurre un concetto di ”squad” più dedicate al servizio. Perché questo migliora due cose, la soluzione dei problemi e di sfruttare meglio una figura professionale piuttosto recente, il Site Reliability Engineer,

Di cosa si tratta?

È stata teorizzata da Google, e noi l’abbiamo adottata. L’SRE fa da ponte tra l’applicazione, gli sviluppatori e chi fa operation in maniera più tradizionale. Perché questo ha come obiettivo di individuare continuamente aree di ottimizzazione. Quindi, mettere a punto nuove automazioni per evitare interruzioni, problemi o ridurre i costi. Abbiamo introdotto questa figura in un’organizzazione a squad. L’esperto di database non ha in genere nessuna idea di quale applicazione lo stia utilizzando. A fronte di un problema, farà un’analisi che parte solo dal database e non di tutto quanto gli ruota intorno.

Per quanto innovativo, alla fine tutto ruota intorno ai dati. Tanti o pochi che siano, come li gestite?

Veniamo da un ramo IBM dove la data science non c’era, perché era in un’altra divisione. Oggi invece, vogliamo essere presenti in maniera importante anche nel mondo dei dati. La gestione del ciclo si può dividere in due, Da una parte, la data engineering, quindi tutti gli aspetti per individuare sorgenti di dati e tecniche per fare ingest di dati, di memorizzazione, di normalizzazione. Quando poi questi dati diventano fruibili si applica la data science. A quel punto se ne occupa il data scientist, si concentra sui dati e per assurdo potrebbe anche non sapere cosa sia un server. La prima attività è storicamente più vicina a noi, anche solo perché riguarda le tecnologie. Nella Data science invece, siamo entrati più di recente, e abbiamo già assunto numerosi data scientist, credo diverse centinaia,

Come si colloca all’interno della strategia di Kyndryl?

È un elemento importantissimo. A parte la centralità del dato, l’infrastruttura serve a far girare le applicazioni e le applicazioni servono a gestire i dati. Quindi alla fine, se non ci fossero dati nessuno comprerebbe un server. Il paragone diffuso con il petrolio non è fuori luogo. Come il greggio, appena estratti i dati non servono a niente, vanno raffinati. È quindi importante una data strategy. Quanti ce l’hanno? probabilmente pochissimi.

Cosa comporta una data strategy?

Vuol dire definire i processi e le responsabilità aziendali. Cosa voglio ottenere, nel senso di far entrare organizzativamente la gestione del dato nel mio business. Individuare di quali dati  abbia bisogno, raccoglierli, centralizzarli, eventualmente ripulirli, metterli su appositi supporti, uniformarli, organizzarli  e metterli al servizio di moduli di fanno data enrichment, o per fare training di algoritmi di machine learning.

Cosa si può ottenere?

Si ricava il valore della propria azienda. Si può insegnare a una rete neurale a riconoscere un pattern, per capire se nei miei dati stia accadendo qualcosa di importante e magari preventivamente mi permetta di intervenire. Serve però una catena che parte dall’estrazione del dato, la sua trasformazione, il training di algoritmi e la messa a disposizione di questo dato, di chi, di chi fa analisi, di chi fa applicazioni. Degli sviluppatori come dell’analisi del rischio per una banca.

Come si inserisce in questo discorso IoT?

Spesso si guarda come una disciplina di rete, ma in realtà è una disciplina di dati. Collegata all’edge computing, Faccio un esempio molto significativo. Kyndryl la applica in progetti in cui riusciamo a capire se sia caduta troppa su un cavo elettrico in montagna. Risolvendo una serie di complessità non scontate.In montagna non c’è l’energia elettrica. C’è naturalmente in un traliccio elettrico, ma è alta tensione, non si può certo collegare un computer; va quindi alimentato in altro modo. Più in generale, dal mondo dell’agricoltura all’industria, la sensoristica è oramai pervasiva. Secondo Kyndryl, l’edge computing è un elemento fondamentale perché molto spesso c’è bisogno di elaborare i dati vicino alla fonte. Se sto monitorando attività sospette in un aeroporto, non posso aspettare il calcolo centralizzato di un dato.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php