IBM acquisisce Confluent: accordo da 11 miliardi di dollari per spingere l’AI real-time

IBM ha ufficializzato l’acquisizione di Confluent con una mossa che chiarisce in modo netto dove stia andando la competizione sulle piattaforme dati per l’AI. Le due società hanno firmato un accordo definitivo in base al quale IBM acquisterà tutte le azioni ordinarie di Confluent a 31 dollari per azione in contanti, per un enterprise value di circa 11 miliardi di dollari. Il board di entrambe le aziende ha già approvato l’operazione e una larga fetta degli azionisti di Confluent – circa il 62% dei diritti di voto – si è impegnata a sostenerla; il closing è atteso entro metà 2026, dopo il voto dei soci e le autorizzazioni regolatorie. L’annuncio arriva dopo settimane di speculazioni di mercato e di report sulla trattativa in corso, che vedevano IBM in pole position per portare a casa uno degli asset più preziosi dell’ecosistema “data in motion”. 

Nata dai creatori di Apache Kafka, Confluent ha trasformato un progetto open source – oggi lo standard de facto per lo streaming di eventi – in una piattaforma enterprise capace di connettere, processare e governare dati in tempo reale su vasta scala. Kafka, nella sua essenza, è un commit log distribuito che consente di pubblicare e consumare eventi con throughput elevatissimo e latenze ridotte, mantenendo persistenza, ordinamento per partizione e replicazione nativa. Confluent ha costruito sopra Kafka un layer di funzionalità operative e di governance che in ambito enterprise fa la differenza: connettori gestiti, controllo degli schemi, stream processing, strumenti di osservabilità e sicurezza, fino ai servizi più recenti pensati per l’AI agentica e per ridurre il “context gap” tra modelli e dati live. 

L’acquisizione è legata alla strategia IBM su hybrid cloud e AI sulla base della previsione che l’esplosione di applicazioni distribuite e agenti generativi renderà indispensabile un tessuto connettivo di dati affidabili e in tempo reale. In architetture moderne, infatti, il dato non viene più trattato come un carico batch che finisce in un warehouse a fine giornata: è un flusso continuo che alimenta microservizi, analytics operative, feature store e sistemi di automazione. Per questo lo streaming è diventato una fondazione dell’AI industrializzata: senza pipeline real-time e governate, la promessa degli agenti – osservare, ragionare e agire su sistemi complessi – resta inefficiente o fragile. La crescita della domanda di data infrastructure per la GenAI è infatti uno dei driver che ha spinto il mercato verso un’ondata di M&A nel 2025. 

Da Kafka a Confluent 

Apache Kafka è il fulcro tecnologico su cui Confluent ha costruito la propria leadership: non un semplice message broker, ma una piattaforma di event streaming che combina messaggistica, storage e replicazione in un’unica architettura distribuita. Kafka tratta ogni informazione come un evento append-only registrato in un log: i producer scrivono su topic logici che vengono spezzati in partizioni fisiche, così da distribuire il carico su più nodi e abilitare parallelismo massivo. L’ordine degli eventi è garantito all’interno di ciascuna partizione, mentre la chiave del messaggio determina dove l’evento verrà collocato, assicurando coerenza per specifiche entità di business (per esempio lo stesso cliente o la stessa transazione). Sul piano dell’affidabilità, ogni partizione è replicata su più broker: un leader gestisce le operazioni di lettura e scrittura e i follower mantengono copie sincronizzate, pronti a subentrare automaticamente in caso di fault. Questo modello, unito alla scrittura sequenziale su disco tipica dei commit log, rende Kafka estremamente efficiente e stabile anche a volumi molto elevati, perché evita aggiornamenti casuali e sfrutta al massimo la cache del sistema operativo e meccanismi di trasferimento dati a basso overhead. Un altro elemento distintivo è la gestione degli offset: i consumer leggono progressivamente gli eventi e memorizzano la posizione raggiunta, potendo ripartire da lì dopo un errore o “riavvolgere” un flusso per replay, audit o ricostruzione dello stato applicativo. È questa capacità di fungere da memoria temporale dei dati in movimento che ha trasformato Kafka nel backbone di architetture event-driven moderne: i sistemi upstream e downstream restano disaccoppiati, più applicazioni possono consumare gli stessi flussi in modo indipendente e l’intero ecosistema digitale può reagire in tempo reale a ciò che accade. Per questo Kafka è diventato una precondizione infrastrutturale non solo per microservizi, osservabilità e analytics operative, ma anche per la nuova ondata di AI enterprise e agentica, dove modelli e agenti hanno bisogno di contesto aggiornato continuamente per prendere decisioni corrette e agire con latenza minima.

Confluent non è soltanto “Kafka enterprise”, ma una piattaforma completa per governare i dati in movimento lungo tutto il loro ciclo di vita, dal momento in cui vengono prodotti fino al loro consumo da applicazioni, analytics e agenti AI. Il cuore resta Apache Kafka, arricchito con funzioni operative e di sicurezza di livello enterprise; nel cloud, però, Confluent ha spinto oltre il modello “cluster gestito” adottando un motore cloud-native (Kora) che separa calcolo e storage e sfrutta object storage per scalare in modo elastico, abbattendo complessità e costi. Attorno a questo core, Confluent Cloud offre servizi gestiti che coprono ingestione, trasformazione e controllo dei flussi: connettori pronti per integrare sistemi legacy e SaaS, stream processing con ksqlDB e Flink, e un livello di governance basato su Schema Registry e regole di compatibilità che consente ai topic di evolvere senza spezzare i contratti dati tra producer e consumer. La piattaforma si estende poi ai contesti ibridi e sovrani con Confluent Platform self-managed, con il modello BYOC di WarpStream per workload massivi su cloud del cliente e con Confluent Private Cloud per portare un’esperienza “managed” anche on-prem. In questo quadro si inseriscono le componenti più recenti orientate all’AI, come gli Streaming Agents e il Real-Time Context Engine, pensate per servire agli agenti generativi un contesto affidabile e aggiornato in tempo reale: è questa combinazione—backbone eventi, processing continuo e governance integrata—che spiega perché IBM abbia identificato Confluent come strato fondazionale per la propria strategia hybrid cloud e AI enterprise.

Per IBM il valore è duplice. Da un lato compra un’infrastruttura real-time già diffusa, con migliaia di clienti e una presenza forte tra le aziende Fortune 500. Dall’altro si assicura un tassello tecnologico che completa il proprio portafoglio dati e automazione: Confluent diventa il backbone di eventi su cui innestare watsonx, le piattaforme di integrazione, gli strumenti di process orchestration e l’offerta di consulting. È coerente con la traiettoria di Arvind Krishna, che negli ultimi anni ha riportato IBM a crescere puntando su software ad alto margine e cloud ibrido. In più, l’operazione rafforza la strategia open source della casa di Armonk: dopo Red Hat e HashiCorp, Confluent è un altro grande brand “open-core” su cui IBM può costruire standard industriali.

Il CEO di IBM Arvind Krishna lega l’operazione alla strategia di hybrid cloud e intelligenza artificiale: “IBM e Confluent insieme permetteranno alle imprese di distribuire l’AI generativa e agentica meglio e più velocemente, fornendo comunicazione e flussi di dati affidabili tra ambienti, applicazioni e API. I dati sono distribuiti tra cloud pubblici e privati, data center e innumerevoli provider tecnologici. Con l’acquisizione di Confluent, IBM offrirà la piattaforma dati intelligente per l’IT enterprise, progettata appositamente per l’AI”.

Dal lato Confluent, il CEO e co-fondatore Jay Kreps sottolinea la continuità della missione e l’accelerazione resa possibile dalla scala IBM: “Fin dalla sua nascita, Confluent ha aiutato le organizzazioni a sbloccare tutto il potenziale dei propri dati, guidando l’innovazione in un panorama IT sempre più complesso. Siamo estremamente orgogliosi del lavoro svolto nel fornire ai clienti una piattaforma di data streaming in tempo reale per la prossima era della tecnologia, inclusa l’AI generativa e agentica. Siamo entusiasti della possibilità di entrare in IBM e di accelerare la nostra strategia con la sua competenza commerciale, la sua scala globale e il suo ampio portafoglio. Non vedo l’ora di costruire insieme il futuro, mentre Confluent diventa parte di IBM”.

Sul mercato del data streaming, l’accordo sposta gli equilibri. Confluent finora ha giocato la carta della neutralità verso hyperscaler e stack concorrenti, grazie a integrazioni profonde con AWS, Google Cloud e Microsoft, oltre che con piattaforme dati come Snowflake e Databricks. IBM dovrà preservare questa linea per non trasformare Confluent in un pezzo percepito come “solo IBM”, perché parte del suo vantaggio competitivo nasce proprio dall’essere il layer event-driven trasversale ai cloud. Se la neutralità regge, però, la combinazione con il go-to-market IBM può accelerare l’adozione in settori regolati e mission-critical dove Kafka è spesso presente ma non standardizzato come piattaforma aziendale unica. È qui che l’acquisizione ha il suo potenziale più forte: portare lo streaming real-time dal perimetro dei team digitali al cuore delle operazioni enterprise.

L’acquisizione di Confluent non è una mossa marginale: è un investimento sulla tesi che l’AI enterprise, soprattutto in versione agentica, si regga su dati in movimento più che su dati “fermi”. IBM compra lo standard industriale di fatto per orchestrare questi flussi e lo porta dentro la propria strategia di piattaforma, provando a diventare il punto di riferimento per chi deve fare AI su ambienti ibridi complessi. Se l’integrazione manterrà neutralità multi-cloud e ritmo di innovazione, il 2026 potrebbe segnare l’inizio di una nuova fase per Kafka e per l’intero mercato dell’event streaming.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome