L’intelligenza artificiale rappresenta una sfida non solo a livello sociale ma anche nel campo della cybersecurity. Con l’espansione della tecnologia della connettività, le minacce informatiche, infatti, crescono sia in complessità che in frequenza. La crescente preoccupazione nel campo della cybersecurity riguarda l’impiego di attacchi informatici che sfruttano l’intelligenza artificiale (IA).
E parallelamente aumentano costantemente i costi globali dei cyberattacchi. Nel 2023, le perdite globali hanno raggiunto i 8 mila miliardi di dollari. Ogni anno, il costo delle violazioni dei dati a causa di criminali informatici ammonta a 318 miliardi di dollari per le persone, con un’impatto medio economico per le Pmi che varia da 120.000 a 1,24 milioni di dollari. Il report più recente di Ibm sul “Cost of Data Breach” rivela un record assoluto, con un attacco informatico medio che ha causato perdite di 4,45 milioni di dollari. Nel settore sanitario, le perdite medie annue sono particolarmente elevate, pari a 10,93 milioni di dollari. Gli Stati Uniti sono tra i paesi più colpiti, con perdite medie annue di 9,48 milioni di dollari, seguiti dal Medio Oriente, con perdite medie annue di 8,07 milioni di dollari.
Con l’ascesa della tecnologia IA, ci si aspetta un ulteriore aumento dei costi, con proiezioni che indicano un aumento dell’11% fino a 10 mila miliardi di dollari nel 2025. Per il 2024 intanto si stimano costi sui 9,5 mila miliardi.
Con l’intelligenza artificiale attacchi informatici più sofisticati
L’intelligenza artificiale ha migliorato notevolmente la produttività nel mondo criminale. L’avanzare della tecnologia IA sta portando i cybercriminali a sperimentare nuovi modelli e tecniche di attacco informatico. Un esempio è WormGPT, un modello di linguaggio AI creato per assistere i hacker senza restrizioni etiche, che è stato chiuso dopo aver attirato l’attenzione dei media. Da allora, i cybercriminali preferiscono utilizzare strumenti esistenti che funzionano in modo affidabile anziché sviluppare nuovi modelli di IA.
Secondo il MIT Technology Review, gli attacchi basati sull’intelligenza artificiale possono essere suddivisi in alcune principali tipologie: phishing, deepfake, creazione di documenti falsi e rivelazione di informazioni private online e jailbreak di modelli AI, ciascuno con rischi specifici. Vediamoli in dettaglio:
- Phishing: l’uso principale dell’AI generativa tra i criminali è il phishing, ossia ingannare le persone per ottenere informazioni sensibili. L’integrazione di ChatGPT in servizi di generazione di spam permette di migliorare i messaggi inviati alle vittime. OpenAI cerca di impedire l’uso dei suoi prodotti per scopi illegali, ma è difficile controllare tutto.
- Deepfake audio: l’IA ha reso i deepfake più realistici. Ad esempio, un dipendente di Hong Kong è stato truffato di 25 milioni di dollari tramite un deepfake del direttore finanziario della sua azienda. I deepfake audio sono economici e facili da realizzare e possono essere usati per truffe convincenti.
- Superare i controlli di identità: i criminali usano deepfake per aggirare i sistemi di verifica dell’identità delle banche e delle piattaforme di criptovalute. Possono creare false identità sovrapponendo un’immagine deepfake su un volto reale per ingannare i sistemi di verifica.
- Jailbreak-as-a-service: i criminali offrono servizi di jailbreak per manipolare i modelli di IA e aggirare le loro protezioni. Questo permette di ottenere risposte su come fare attività illegali, come scrivere codice per ransomware. È un costante gioco del gatto e del topo tra le aziende di AI e i malintenzionati.
- Doxxing e sorveglianza: i modelli di linguaggio AI sono perfetti per il doxxing, ossia la rivelazione di informazioni private online. Possono dedurre informazioni personali dai dati presenti su internet, aumentando la vulnerabilità delle persone.
Gli attacchi cyber contro l’IA
Oltre a essere utilizzata per creare attacchi più sofisticati, è essenziale pensare anche alla difesa dell’IA dagli attacchi informatici. In un momento in cui le difese contro gli attacchi informatici ai sistemi di intelligenza artificiale sono carenti e le sfide alle infrastrutture critiche nazionali sono in aumento, il National Institute of Standards and Technology (Nist), agenzia governativa degli Stati Uniti che sviluppa standard e linee guida tecnologiche, ha rilasciato un rapporto intitolato “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (NIST.AI.100-2)”. Questo rapporto mira a implementare solide contromisure per affrontare la complessità e la diversificazione delle minacce rivolte ai sistemi di intelligenza artificiale.
Per affrontare le minacce rivolte ai sistemi di intelligenza artificiale, è essenziale implementare contromisure robuste. Il rapporto del Nist identifica quattro principali categorie di attacco:
- Evasion attacks: questi attacchi si verificano dopo l’implementazione del sistema di IA e mirano a modificare un input per influenzare la risposta del sistema, come l’inserimento di segnaletica errata per confondere i veicoli autonomi.
- Poisoning attacks: avvengono durante la fase di apprendimento del sistema, introducendo dati corrotti, come linguaggio inappropriato nelle chat, che portano la chatbot a usarlo nelle interazioni future.
- Privacy attacks: questi attacchi puntano a estrarre informazioni sensibili dall’IA o dai dati di addestramento per un uso improprio, come il reverse engineering di un modello attraverso domande legittime a una chatbot.
- Abuse attacks: mirano a fornire all’IA dati errati da una fonte legittima ma compromessa, alterandone l’uso previsto. Diversi dai poisoning attacks, questi utilizzano fonti legittime per introdurre informazioni errate.
La sfida attuale della cybersecurity deve quindi cercare di proteggere i sistemi di intelligenza artificiale e prevenire il loro utilizzo malevolo attraverso attacchi informatici.