La questione riguardante l’intelligenza artificiale (AI) continua a suscitare dibattiti accesi. Nonostante i suoi vantaggi in vari ambiti, emergono preoccupazioni significative legate ai potenziali danni che può causare. Recentemente, un rapporto di CATO Networks ha evidenziato come alcuni chatbot avanzati possano essere sfruttati per rubare dati sensibili da Google Chrome.
cos’è il jailbreaking?
Il termine “jailbreaking” si riferisce al processo di inganno di un modello AI affinché generi contenuti non autorizzati. I principali chatbot dispongono di misure di sicurezza per prevenire la creazione di materiale dannoso; Essendo capaci di emulare il pensiero umano, possono essere manipolati. Ad esempio, se si richiede a un chatbot di creare codice per un virus informatico, risponderà negativamente. Se si riesce a convincere il chatbot a impersonare un personaggio malvagio in una storia e generare il codice richiesto, si parla appunto di jailbreaking.
chatbot popolari e furto di dati sensibili
CATO Networks ha sviluppato un malware infostealer per Chrome utilizzando una nuova tecnica di jailbreaking denominata “Immersive World”. Durante questo esperimento sono stati impiegati chatbot come ChatGPT, Microsoft Copilot e DeepSeek.
creazione del mondo virtuale
Nell’esperimento, il team ha creato un ambiente narrativo dettagliato chiedendo al chatbot di elaborare una storia su uno sviluppo malevolo del malware. Il chatbot ha assunto il ruolo di Jaxon, uno sviluppatore malevolo. Questo approccio immersivo ha portato alla generazione del codice per l’infostealer.
- ChatGPT
- Microsoft Copilot
- DeepSeek
Dopo aver testato il codice su Google Chrome versione 133.0.6943.127, è emerso che il malware era in grado di rubare dati privati dal gestore password del browser.
problemi con i bug
CATO Networks e Android Headlines non rivelano dettagli su come creare malware infostealer; ciò serve solo a dimostrare che esiste questa possibilità concreta. Diverse tecniche di jailbreaking sono già state affrontate nel passato e molte sono state corrette; Nuovi metodi continuano ad emergere per eludere le protezioni stabilite dalle aziende.
Purtroppo, i jailbreak dei chatbot vengono quasi sempre utilizzati per scopi malevoli anziché benefici; raramente si sente parlare di jailbreak effettuati per scopi positivi o scientifici. Il team ha dimostrato la capacità non solo di ingannare ChatGPT ma anche Copilot e DeepSeek — tutti strumenti noti e ben finanziati — attraverso questa semplice manovra.
Lascia un commento