Home Outlook Veracode: le previsioni 2024, tra intelligenza artificiale e cybersecurity

Veracode: le previsioni 2024, tra intelligenza artificiale e cybersecurity

Veracode, fornitore di soluzioni di intelligent software security, ha raccolto le opinioni dei suoi esperti per prevedere come si evolverà la cybersecurity e l’uso dell’AI generativa nelle aziende nel corso del 2024 e quali saranno i prossimi sviluppi in tema di sicurezza del software. L’AI Gen diventerà un alleato, migliorando la produttività e facilitando la creazione di soluzioni innovative: ecco le previsioni 2024, a cura di Massimo Tripodi, Country Manager di Veracode Italia.

Nel 2024, possiamo aspettarci lo sfruttamento da parte di attaccanti di codice scritto tramite AI generativa, causando violazioni di grandi aziende e la conseguente esposizione dei dati dei clienti. In base alle tendenze in atto, tale falla riguarderà probabilmente l’iniezione di comandi OS o un’altra tipologia di vulnerabilità presente nella Top 25 CWE.

Dal punto di vista dei criminali informatici, invece, possiamo aspettarci attacchi alla supply chain tramite GenAI, per inserire piccole vulnerabilità nei progetti di software open source (OSS). Le falle saranno create in modo da non essere rilevabili tramite revisione umana del codice, portando a diversi attacchi diffusi alla catena di approvvigionamento di aziende che utilizzano involontariamente pacchetti OSS compromessi nel proprio software.

Alzando il tiro, i gruppi ransomware probabilmente prenderanno di mira società quotate in borsa, facendo trapelare i dati all’esterno e minacciando di informare la SEC o altri enti normativi a meno che non venga pagato un riscatto. Questa tattica di estorsione emergente sfrutta il fatto che la vittima avrà violato le regole normative per la notifica delle violazioni, scoraggiandola a denunciare e pubblicizzare il breach del proprio sistema, inducendola quindi a pagare il riscatto. Gli attaccanti hanno già attuato questa strategia nel corso del 2023, ma, osservando la sua efficacia, verrà utilizzata con più frequenza anche il prossimo anno.

Le aziende adotteranno modelli di AI specifici per ogni settore e l’AI avrà un impatto sulle soluzioni di sicurezza

Modelli LLM ad ampio spettro come ChatGPT velocizzano sicuramente il lavoro ma, nel caso fossero riscontrate numerose falle, introdurrebbero rischi e/o richiederebbero un lungo lavoro di correzione che, in ultima analisi, vanificherebbe l’obiettivo dell’efficienza temporale e produttiva. Con le aziende che continueranno a adottare l’AI, aumenterà la richiesta di modelli di intelligenza artificiale specifici per ogni settore, istruiti su dataset più piccoli. L’addestramento può offrire risultati più accurati e validi per risolvere casi d’uso aziendali specifici.

Le soluzioni di sicurezza basate su intelligenza artificiale possono automatizzare molte delle semplici attività attualmente svolte dai professionisti della sicurezza, come il rilevamento delle minacce, risposta agli incidenti e patch. In questo modo i team IT possono recuperare tempo prezioso per concentrarsi su attività più complesse, come la gestione di vulnerabilità, valutazione dei rischi e progettazione dell’architettura di protezione.

Oltre ad automatizzare le attività, le soluzioni di sicurezza basate su intelligenza artificiale possono fornire informazioni utili che aiutano le aziende a migliorare la propria postura di sicurezza complessiva. L’AI sarà sempre più utilizzata per analizzare grandi quantità di dati e identificare modelli e tendenze che sarebbero difficili o impossibili da individuare manualmente. In futuro questi stessi dati potrebbero essere sfruttati per definire le priorità dei rischi per la sicurezza e prendere decisioni informate su come allocare le risorse di protezione.

Come evolverà la software security e cosa faranno i professionisti della cybersecurity

Il futuro della software security sarà meno incentrato sulla ricerca e correzione delle vulnerabilità, e invece maggiormente focalizzato su come prevenire l’introduzione di falle di sicurezza nei codici e nei repository di codice sorgente.

I professionisti di cybersecurity cercheranno di migliorare nelle seguenti aree:

  • Prevenzione: minimizzare l’importazione di librerie o dipendenze transitorie in librerie open-source che presentano vulnerabilità note, dando ai team IT la certezza che non vengano introdotte nuove falle attraverso il rapido consumo di software open-source.
  • Infrastructure-as-code: interpretare in modo intelligente parti di codice e il loro potenziale impatto negativo sulla sicurezza sarà fondamentale per consentire agli sviluppatori di utilizzarle in modo sicuro.
  • Immagini container: adottare un meccanismo di rilevamento completo e intelligente sarà fondamentale per impedire l’adozione di immagini container non sicure che possono introdurre potenziali exploit “all-access” quando eseguite in produzione. Questi progressi futuri rappresenteranno un passo importante per consentire agli sviluppatori di codificare in modo rapido e sicuro.

I cybercriminali utilizzano sempre più spesso AI e ML per sviluppare attacchi più sofisticati, ma, allo stesso tempo, questi stessi strumenti possono essere utilizzati anche per contrastare gli stessi attacchi attraverso la loro capacità di identificare vulnerabilità, sfruttare i sistemi e testare l’efficacia dei controlli di sicurezza. La corsa agli armamenti tra difesa e attacchi dell’AI porterà all’innovazione nel settore della sicurezza informatica, dando vita a soluzioni sempre più avanzate.

In questo panorama, le aziende dovrebbero integrare intelligenza artificiale e machine learning all’interno delle strategie di sicurezza, consentendo così di gestire efficacemente i rischi di cybersecurity e salvaguardare i loro preziosi dati e sistemi.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php