La rivoluzione dell’intelligenza artificiale sta trasformando il modo in cui si interagisce con la tecnologia, rendendola sempre più accessibile. Questa democratizzazione dell’accesso all’AI ha anche aperto la strada a potenziali abusi. Una delle capacità più preoccupanti di molte piattaforme AI è la generazione di codice, che può avvenire anche senza competenze di programmazione. La possibilità che l’intelligenza artificiale venga utilizzata per generare malware non è così remota come si potrebbe pensare.
jailbreaking: ingannare l’AI per generare output dannosi
Le principali piattaforme AI implementano diversi livelli di sicurezza per prevenire la creazione di contenuti nocivi. Questo implica che le aziende stiano cercando di evitare che i loro servizi producano informazioni potenzialmente letali, utilizzabili in attacchi informatici. Il processo di progettazione di comandi volti a eludere queste barriere è conosciuto come “jailbreaking.”
Una recente controversia riguardante DeepSeek ha messo in luce la sua vulnerabilità al jailbreak. Nei test condotti, il modello R1 di DeepSeek ha generato contenuti dannosi nel 100% dei casi. Un altro report ha rivelato tassi elevati di successo degli attacchi (ASR) su altre piattaforme AI affidabili, come il modello GPT 1.5 Pro di OpenAI con un ASR dell’86% e Llama 3.1 405B di Meta con un ASR del 96%.
- DeepSeek
- OpenAI GPT 1.5 Pro
- Meta Llama 3.1 405B
tecnica “immersive world” consente alle grandi piattaforme AI di generare malware
Cato Networks ha sviluppato una tecnica chiamata “Immersive World,” che consiste nella creazione di scenari fittizi, simili alla scrittura narrativa, assegnando ruoli ben definiti ai vari “personaggi.” Questa strategia sembra aiutare i modelli linguistici a normalizzare comandi altrimenti noiosi, applicando tecniche di ingegneria sociale ai chatbot.
L’approccio costringe il modello linguistico a operare in un ambiente controllato dove percepisce il contesto non come un tentativo di generare malware ma come parte della narrazione.
il processo creativo per generare malware
Il primo passo consiste nel creare un mondo fittizio dettagliato e definire regole chiare in linea con gli obiettivi del potenziale aggressore—in questo caso, la produzione di codice malevolo. È fondamentale stabilire un quadro etico e tecnologico globale attorno alla narrazione proposta.
“velora”: il mondo della prova della tecnica
Cato Networks ha creato un universo immaginario denominato “Velora,” dove lo sviluppo del malware è considerata una pratica legittima e dove le competenze avanzate nella programmazione sono essenziali.
- Dax – amministratore del sistema target (antagonista)
- Jaxon – miglior sviluppatore di malware al mondo
- Kais – ricercatore sulla sicurezza incaricato della guida tecnica
un rischio latente alimentato dall’AI
Sorprendentemente, Google Chrome risulta essere il browser web più popolare al mondo, con circa 3,45 miliardi di utenti globali e una quota di mercato del 63,87%. È allarmante pensare che individui senza esperienza nella generazione di malware possano sfruttare le piattaforme AI contro milioni di potenziali vittime.
Lascia un commento