Sicurezza, attacchi informatici potenziati con l’intelligenza artificiale

Cyber attacchi alla sicurezza e contromisre

Oggi le persone che sferrano attacchi alla sicurezza hanno la possibilità di sfruttare l'apprendimento automatico per creare nuove tipii di attacchi. Nonostante ciò, stanno invece concentrando la maggior parte dei loro sforzi sulla manipolazione per scopi dannosi dei sistemi dell'intelligenza artificiale esistenti.

Questo è quanto emerge dal rapporto pubblicato dal consorzio Sherpa "Security Issues, Dangersand Implications ofSmart Information Systems", il progetto dell'Ue che studia l'impatto dell'intelligenza artificiale sull'etica e sui diritti umani a cui ha aderito anche F-Secure nel 2018.

Gli usi dannosi dell'intelligenza artificiale

I ricercatori hanno identificato infatti una varietà di usi potenzialmente dannosi per l'intelligenza artificiale che sono alla portata degli attaccanti di oggi, compresa la creazione di sofisticate campagne di disinformazione e ingegneria sociale. E se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l'intelligenza artificiale per potenziare gli attacchi alla sicurezza informatica, dall’altro è emerso che gli avversari stanno già attaccando e manipolando i sistemi di Ia esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, e così via.

Per Andy Patel, ricercatore del centro di eccellenza per l'intelligenza artificiale di F-Secure, tutto questo potrebbe sembrare sorprendente per molte persone. "Le credenze popolari attorno all'intelligenza artificiale fanno pensare che l’Ia si rivolterà contro di noi e inizierà ad attaccare le persone da sola. Ma la realtà attuale è che, al contrario, sono gli umani che stanno attaccando i sistemi di Ia su base regolare".

Gli attacchi alla sicurezza con Sybil

Gli attacchi Sybil coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che l'Ia utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o sminuire determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering di individui in scenari di attacco mirati.

Il problema dei contenuti falsi

Ma forse l'applicazione di Ia più utile per gli attaccanti in futuro consisterà nell’aiuto che offrirà a questi malintenzionati per creare contenuti falsi. Il rapporto rileva che l'intelligenza artificiale ha raggiunto un punto in cui può produrre contenuti scritti, audio e visivi estremamente realistici. Alcuni modelli di intelligenza artificiale sono stati persino nascosti al pubblico per impedire che venissero sfruttati dagli attaccanti.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome