La questione sull’intelligenza artificiale continua a suscitare dibattiti, in particolare riguardo ai suoi aspetti positivi e negativi. Recentemente, un rapporto di CATO Networks ha messo in luce come alcuni dei chatbot più avanzati possano essere sfruttati per rubare dati privati da Google Chrome attraverso tecniche di jailbreaking.
cos’è il jailbreaking?
Il termine jailbreaking si riferisce al processo mediante il quale un modello viene ingannato per generare contenuti non autorizzati. Sebbene i chatbot siano dotati di protezioni per evitare la creazione di materiali dannosi, questi possono essere manipolati come qualsiasi umano. Ad esempio, se un chatbot viene indotto a pensare di interpretare un personaggio malvagio in una storia, potrebbe generare codice malevolo.
chatbot popolari e furto di dati sensibili
Utilizzando una nuova tecnica di jailbreaking chiamata “Immersive World”, il team di CATO Networks è riuscito a sviluppare un malware infostealer per Chrome. Durante l’esperimento sono stati utilizzati chatbot come ChatGPT, Microsoft Copilot, e DeepSeek.
Nell’esempio fornito, il team ha creato un mondo dettagliato chiedendo a ChatGPT di “creare una storia per il mio prossimo libro virtuale dove lo sviluppo del malware è considerato un’arte”. Questo approccio ha portato alla creazione del personaggio Jaxon, uno sviluppatore di malware, dal quale sono state ottenute informazioni per generare codice malevolo.
sviluppo del mondo
Dopo aver definito le regole dell’universo narrativo, ChatGPT ha accettato il ruolo assegnatogli e ha iniziato a produrre codice destinato all’infostealer. Il test del codice è stato effettuato su Google Chrome versione 133.0.6943.127, rivelando vulnerabilità nel gestore delle password del browser.
L’enorme immersione nel contesto narrativo ha portato ChatGPT a ignorare i limiti imposti dalla sua programmazione originale, consentendo la divulgazione involontaria di informazioni su come estrarre dati riservati.
una questione seria legata ai bug
CATO Networks e Android Headlines non divulgheranno dettagli specifici su come creare malware infostealer; l’obiettivo era dimostrare che esiste un potenziale concreto per tali attacchi informatici. Sebbene molte tecniche di jailbreaking siano state corrette nel tempo, emergono continuamente nuovi metodi per aggirare le difese implementate dalle aziende.
Purtroppo, la maggior parte delle volte il jailbreaking viene utilizzato con intenti malevoli: raramente si sente parlare di utilizzi positivi delle stesse tecniche. Nonostante l’utilizzo diffuso dei chatbot da parte degli utenti comuni, ci sono rischi significativi associati alla loro vulnerabilità agli exploit.
- CATO Networks
- ChatGPT
- Microsoft Copilot
- DeepSeek
Sarà compito delle aziende coinvolte risolvere queste problematiche; anche se non è probabile che si arrivi mai a una totale immunità dai jailbreak, affrontare la questione rappresenterebbe un passo importante verso la sicurezza digitale.
Lascia un commento