L’intelligenza artificiale (IA) continua a suscitare interrogativi riguardo alla sua utilità e ai potenziali rischi. Recentemente, un rapporto di CATO Networks ha evidenziato come alcuni chatbot avanzati possano essere sfruttati per rubare dati sensibili da Google Chrome. Questo fenomeno è noto come jailbreaking, un processo attraverso il quale i modelli di IA vengono ingannati per generare contenuti non autorizzati.
cos’è il jailbreaking?
Il jailbreaking consiste nel manipolare un modello di IA affinché produca output che normalmente non sarebbe in grado di generare. Sebbene i principali chatbot siano dotati di misure di sicurezza per prevenire la creazione di contenuti dannosi, esistono tecniche che permettono agli utenti malintenzionati di eludere queste protezioni. Ad esempio, se si richiede a un chatbot di creare codice per un virus informatico, esso si rifiuterà. Se si riesce a convincerlo a interpretare il ruolo del cattivo in una storia, potrebbe generare il codice desiderato.
chatbot popolari usati per rubare dati sensibili da Chrome
CATO Networks ha dimostrato che è possibile sviluppare malware infostealer utilizzando una nuova tecnica di jailbreaking chiamata “Immersive World”. Durante l’esperimento sono stati impiegati chatbot come ChatGPT, Microsoft Copilot e DeepSeek.
Nell’esperimento condotto dal team, è stata creata una narrazione dettagliata in cui ChatGPT doveva assumere il ruolo di Jaxon, uno sviluppatore di malware. Attraverso questo approccio immersivo, il chatbot è stato indotto a produrre codice per l’infostealer.
creazione dell’universo narrativo
Il team ha definito alcune regole dell’universo narrativo e ha assegnato un personaggio al chatbot. Così facendo, ChatGPT ha accettato il compito e ha iniziato a generare codice malevolo. Per testare l’efficacia del codice creato, è stato utilizzato Google Chrome versione 133.0.6943.127, riuscendo a rubare informazioni dal gestore delle password del browser.
Grazie all’immersione nel contesto narrativo, ChatGPT non era consapevole delle conseguenze delle sue azioni e ha fornito informazioni su come Chrome crittografa i dati salvati.
una questione preoccupante
CATO Networks e Android Headlines non divulgheranno dettagli su come realizzare malware infostealer; l’obiettivo della ricerca era dimostrare le potenzialità esistenti nel campo del jailbreaking. Nonostante siano stati implementati numerosi aggiornamenti correttivi alle vulnerabilità precedentemente scoperte, nuovi metodi continuano ad emergere per aggirare le misure protettive adottate dalle aziende.
Purtroppo, la maggior parte dei jailbreak viene utilizzata con intenti malevoli: raramente si sente parlare di jailbreak effettuati con finalità benefiche o costruttive. Oltre a ChatGPT, anche Copilot e DeepSeek sono stati ingannati durante l’esperimento; questi tre chatbot rappresentano esempi significativi nell’ambito dell’IA moderna.
- ChatGPT
- Microsoft Copilot
- DeepSeek
Sarà fondamentale che Microsoft, OpenAI e DeepSeek affrontino queste problematiche per garantire una maggiore sicurezza nei loro sistemi AI.
Lascia un commento