Wiz, società specializzata nella cloud security, ha condiviso che Wiz Research ha identificato un database ClickHouse pubblicamente accessibile appartenente a DeepSeek, che consente il pieno controllo delle operazioni del database, compresa la possibilità di accedere ai dati interni.
L’esposizione – afferma Wiz – comprende oltre un milione di righe di flussi di log contenenti cronologia delle chat, chiavi segrete, dettagli del backend e altre informazioni altamente sensibili. Il team di Wiz Research ha immediatamente e responsabilmente comunicato il problema a DeepSeek, che ha prontamente messo al sicuro l’esposizione.
Quando DeepSeek ha suscitato tanto clamore nello spazio dell’intelligenza artificiale, spiega l’azienda di cloud security, il team di Wiz Research ha deciso di valutare la sua posizione di sicurezza esterna e di identificare qualsiasi potenziale vulnerabilità.
In pochi minuti, afferma l’azienda, il team ha trovato un database ClickHouse accessibile pubblicamente collegato a DeepSeek, completamente aperto e non autenticato, che esponeva dati sensibili. Questo database conteneva un volume significativo di cronologia delle chat, dati di backend e informazioni sensibili, tra cui stream di log, API Secrets e dettagli operativi.
Ancora più critico è il fatto che l’esposizione ha permesso il pieno controllo del database e la potenziale escalation dei privilegi all’interno dell’ambiente DeepSeek, senza alcun meccanismo di autenticazione o di difesa verso il mondo esterno.
Wiz sottolinea che la rapida adozione di servizi di intelligenza artificiale senza una corrispondente sicurezza è intrinsecamente rischiosa. Questa esposizione sottolinea il fatto che i rischi immediati per la sicurezza delle applicazioni AI derivano dall’infrastruttura e dagli strumenti che le supportano.
Mentre gran parte dell’attenzione sulla sicurezza dell’AI si concentra sulle minacce futuristiche, i pericoli reali spesso derivano da rischi di base, come l’esposizione esterna accidentale dei database, come in questo caso concernente DeepSeek. Questi rischi, che sono fondamentali per la sicurezza, devono rimanere una priorità assoluta per i team di sicurezza, avverte il team.
Mentre le organizzazioni si affrettano a adottare strumenti e servizi AI da un numero crescente di startup e fornitori, è essenziale ricordare che, così facendo, stanno affidando a queste aziende dati sensibili. La rapidità di adozione porta spesso a trascurare la sicurezza, ma la protezione dei dati dei clienti deve rimanere la priorità assoluta. È fondamentale che i team di sicurezza lavorino a stretto contatto con gli ingegneri dell’intelligenza artificiale per garantire la visibilità dell’architettura, degli strumenti e dei modelli utilizzati, in modo da poter salvaguardare i dati e prevenire l’esposizione, evidenzia Wiz.
La conclusione a cui arriva il team di Wiz Research è che il mondo non ha mai visto una tecnologia adottata al ritmo dell’AI. Molte aziende di intelligenza artificiale sono cresciute rapidamente fino a diventare fornitori di infrastrutture critiche, senza le strutture di sicurezza che di solito accompagnano tali adozioni diffuse. Man mano che l’AI si integra profondamente nelle aziende di tutto il mondo, il settore deve riconoscere i rischi legati alla gestione dei dati sensibili e applicare pratiche di sicurezza pari a quelle richieste ai fornitori di cloud pubblico e ai principali fornitori di infrastrutture.
In un post del proprio blog ufficiale, Wiz Research ha illustrato nei dettagli la sua scoperta riguardante DeepSeek e condiviso le implicazioni più ampie per il settore in generale.