Cisco AI Security Framework: come cambia la sicurezza dell’intelligenza artificial

cisco ai

L’intelligenza artificiale sta entrando in modo strutturale nei processi aziendali, ma la capacità di governarne i rischi resta drammaticamente indietro. Il dato più indicativo arriva dal Cisco 2025 AI Readiness Index: solo il 29% delle organizzazioni si ritiene preparato a difendersi dalle minacce legate all’IA e appena il 33% dichiara di avere un piano per un’adozione responsabile. Una distanza che non riguarda la cybersecurity tradizionale, ormai ben compresa dai vertici aziendali, ma la natura stessa dei sistemi di intelligenza artificiale, caratterizzati da comportamenti emergenti, non deterministici e difficili da prevedere.

È su questo scarto, tra diffusione dell’IA e maturità della sua governance, che Cisco costruisce il proprio AI Security Framework: un modello integrato, indipendente dai fornitori e pensato per aiutare le imprese a comprendere come i sistemi di IA possono fallire, come possono essere attaccati e come progettare difese capaci di evolvere insieme alla tecnologia.

Un panorama frammentato che non riflette il mondo reale

Negli ultimi anni le aziende hanno cercato di affrontare i rischi dell’intelligenza artificiale adottando linee guida e framework separati. MITRE ATLAS ha mappato le tattiche avversarie, NIST si è concentrato sugli attacchi al machine learning, OWASP ha lavorato sui rischi dei modelli linguistici, mentre grandi player come Google, OpenAI e Anthropic hanno sviluppato pratiche interne focalizzate sui propri ecosistemi.

Il problema è che nessuno di questi approcci offre una visione davvero completa. Nel mondo reale i rischi non sono compartimentati e gli attaccanti non seguono confini teorici. Un attacco può nascere da una vulnerabilità tecnica, propagarsi attraverso un agente autonomo, sfruttare un input multimodale e produrre un danno comportamentale o reputazionale. Per questo, secondo Cisco, serve un modello unico in grado di integrare sicurezza, runtime, supply chain, comportamento dei modelli, input e output dannosi e rischi agentici.

Sicurezza dell’IA e sicurezza responsabile: due dimensioni inseparabili

Uno dei punti centrali del Cisco AI Security Framework è la distinzione, ma anche l’integrazione, tra due dimensioni complementari del rischio. Da un lato c’è la sicurezza dell’IA, che riguarda la protezione dei sistemi da attacchi, accessi non autorizzati e compromissioni lungo l’intero ciclo di vita, dallo sviluppo alla messa in produzione. Dall’altro lato c’è la sicurezza responsabile dell’IA, che riguarda il comportamento dei sistemi: etica, affidabilità, trasparenza, allineamento ai valori umani e impatti sugli utenti.

Trattare separatamente questi due ambiti significa costruire sistemi fragili. Affrontarli insieme consente invece di progettare soluzioni di intelligenza artificiale robuste, sicure e affidabili, capaci di operare in contesti complessi senza generare rischi sistemici.

I cinque pilastri del Framework Integrato di Sicurezza e Protezione AI

Per rispondere a un panorama di minacce in continua evoluzione, il framework di Cisco si fonda su cinque elementi chiave che riflettono il funzionamento reale dei sistemi di IA moderni.

Il primo è l’integrazione tra minacce tecniche e contenuti dannosi. Attacchi infrastrutturali e manipolazioni dei contenuti non sono fenomeni separati: spesso si combinano e producono effetti concreti sugli utenti e sull’organizzazione. Il framework li tratta come parti di un unico problema.

Il secondo è la consapevolezza del ciclo di vita. I rischi non sono statici e cambiano nelle diverse fasi di sviluppo, addestramento, distribuzione e operatività. Il modello aiuta a individuare vulnerabilità specifiche per ogni fase e a progettare difese che evolvono insieme al sistema.

Il terzo pilastro è l’orchestrazione multi-agente. Quando più sistemi di IA collaborano, emergono nuove superfici di attacco legate alle comunicazioni, alla memoria condivisa e ai processi decisionali autonomi. Sono rischi spesso invisibili ai framework tradizionali, ma centrali nei contesti agentici.

Il quarto elemento è la multimodalità. I sistemi di IA oggi elaborano testo, audio, immagini, video, codice e dati provenienti da sensori. Il framework consente di affrontare in modo coerente i rischi derivanti da input diversi, un aspetto cruciale per robotica, veicoli autonomi e piattaforme di monitoraggio.

Il quinto pilastro riguarda l’uso consapevole del framework da parte dei diversi stakeholder. Dirigenti, responsabili della sicurezza, ingegneri e team di threat intelligence utilizzano lo stesso modello concettuale, migliorando comunicazione, allineamento e capacità decisionale.

Una classificazione unificata delle minacce all’intelligenza artificiale

Un elemento distintivo del Cisco AI Security Framework è la sua classificazione unificata delle minacce, strutturata su quattro livelli. Il primo riguarda gli obiettivi degli attaccanti, ovvero il perché di un attacco. Il secondo riguarda le tecniche, cioè il come. Il terzo livello dettaglia le sottotecniche, mentre il quarto descrive le procedure, ovvero le implementazioni concrete osservate nel mondo reale.

Il framework identifica 19 obiettivi degli attaccanti, tra cui dirottamento dei sistemi, jailbreak dei modelli, compromissione della privacy, escalation di privilegi e generazione di contenuti dannosi. Sul piano operativo mappa oltre 150 tecniche e sottotecniche, incluse iniezioni di prompt, manipolazioni multi-agente, corruzione della memoria e compromissione della supply chain. Copre inoltre 25 categorie di contenuti dannosi, dalla cybersecurity alla privacy, fino alla protezione della proprietà intellettuale.

Dalla teoria alla pratica: il legame con Cisco AI Defense

Il valore del framework non è solo concettuale. Cisco lo ha integrato direttamente in Cisco AI Defense, trasformando la classificazione delle minacce in uno strumento operativo. Indicatori, tecniche e strategie di mitigazione vengono tracciati in modo sistematico, consentendo alle organizzazioni di passare dalla comprensione del rischio alla sua gestione concreta.

In un contesto in cui l’intelligenza artificiale sta ridisegnando interi settori, disporre di una visione chiara e condivisa dei rischi non è più un’opzione. Il Cisco AI Security Framework si propone come uno degli approcci più completi e lungimiranti oggi disponibili, capace di collegare infrastrutture, supply chain, governance e interazioni umane in un unico modello di riferimento per un’adozione dell’IA realmente sicura e responsabile.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome