Anand Prakash, Senior Director, Product Management di SentinelOne, spiega perché è il momento di concentrarsi sul tema AI Sicura.
Quando Coca-Cola ha presentato la sua ultima pubblicità natalizia – una rivisitazione guidata dall’intelligenza artificiale della sua iconica campagna degli anni ‘80 – non solo ha messo in mostra il potenziale creativo dell’AI generativa, ma ha sottolineato una verità più ampia: l’AI non è più confinata agli esperti di nicchia, è centrale in tutti i settori.
Nel 2024, l’AI ha consolidato il proprio ruolo nell’economia moderna e, recenti ricerche, rivelano che il 25% delle aziende sta adottando l’AI per massimizzare sforzi e risultati di business. Nel 2025, questa tendenza è destinata ad accelerare, incorporando l’AI più a fondo nei processi aziendali, dal marketing allo sviluppo del software. Tuttavia, mentre le aziende si affrettano a sfruttare il potenziale dell’AI, molte dimenticano di adottare gli strumenti di protezione più corretti a salvaguardare i dati, creando rischi significativi.
Cos’è la Shadow AI?

Un pericolo immediato è rappresentato dalla Shadow AI, che fa riferimento all’abitudine diffusa all’interno delle organizzazioni di utilizzare servizi o applicazioni senza una corretta supervisione da parte dell’IT. La Shadow AI nasce spesso da team che sono intenzionati a migliorare la produttività, ma che aggirano i processi di governance tradizionali.
Questi strumenti non controllati possono inavvertitamente esporre dati sensibili, introdurre vulnerabilità o creare rischi di conformità. Ad esempio, i modelli di AI che generano informazioni sui clienti potrebbero memorizzare i dati in ambienti non protetti, lasciandoli esposti ad accessi non autorizzati o a furti.
Nel frattempo, gli autori delle minacce si orientano al meglio in questo caos e sfruttano l’AI per creare attacchi di phishing convincenti, aggirare i protocolli di sicurezza e sfruttare ambienti cloud mal configurati. Mentre le aziende esaltano l’efficienza dell’AI, gli aggressori la sfruttano a loro vantaggio, intensificando le operazioni malevoli e amplificando il loro impatto. Il divario tra innovazione e sicurezza è evidente e le conseguenze sono sempre più difficili da ignorare.
L’AI Security Posture Management, per un’AI sicura
Affrontare le sfide della sicurezza dell’AI impone un cambiamento nell’approccio alla protezione delle imprese. I framework di cybersecurity tradizionali, pur essendo essenziali, non sono progettati per gestire le vulnerabilità uniche dei sistemi di AI. È qui che entra in gioco l’AI Security Posture Management (AI-SPM).
L’AI-SPM è un framework che fornisce visibilità, governance e protezione per le applicazioni, i modelli e le infrastrutture di AI. A differenza delle misure di sicurezza convenzionali, l’AI-SPM si concentra sui rischi specifici che le pipeline di AI rappresentano.
In primo luogo, l’AI-SPM consente di individuare la Shadow AI identificando tutte le applicazioni di AI, incluse quelle non autorizzate, in esecuzione all’interno di un’organizzazione. In secondo luogo, rileva le configurazioni errate. I servizi di AI mal configurati possono esporre inavvertitamente dati sensibili o creare backdoor per gli aggressori. L’AI-SPM identifica queste vulnerabilità prima che possano essere sfruttate. Inoltre, l’AI-SPM fornisce una visualizzazione dei percorsi di attacco, mappando il modo in cui gli avversari potrebbero sfruttare i workload dell’AI. Infine, con la gestione della compliance, l’AI-SPM aiuta le organizzazioni ad allineare le proprie implementazioni di AI con gli standard di conformità in evoluzione, come l’AI Act dell’UE, garantendo il rispetto dei requisiti normativi.
Integrando l’AI-SPM nella più ampia strategia di sicurezza, le organizzazioni possono trovare un equilibrio tra innovazione e protezione, sfruttando i vantaggi dell’AI in termini di produttività e salvaguardando dati e infrastrutture dalle minacce emergenti.
Garantire il futuro: strategie per il 2025 e per gli anni futuri
La rapida adozione dell’AI nel 2024 ha dimostrato il suo potenziale ma anche i relativi pericoli. Tuttavia, le stesse caratteristiche che rendono l’AI attraente – velocità, scalabilità e adattabilità – ne dimostrano anche le debolezze. La lezione è chiara: l’adozione dell’AI senza valide misure di sicurezza è il preludio di un disastro.
Per prepararsi alla prossima ondata di adozione dell’AI, le imprese devono adottare strumenti di AI-SPM poiché questi strumenti forniscono visibilità sulla Shadow AI, rilevano le vulnerabilità e offrono approfondimenti sui percorsi di attacco.
Le organizzazioni devono poi dare priorità alla formazione dei collaboratori, in quanto questi sono spesso l’anello più debole della catena di sicurezza di un’organizzazione e devono allinearsi agli standard normativi.
In estrema sintesi occorre agire: l’AI è qui per restare e le imprese devono abbracciare il potenziale dell’AI, affrontando al contempo le nuove sfide di sicurezza.
È il momento di concentrarsi sul tema “AI Sicura”, definendo le priorità di gestione della postura di sicurezza, rispettando gli standard normativi e promuovendo una cultura di vigilanza.









