Chatbot fidati: proteggi i tuoi dati sensibili dal furto

La questione riguardante l’intelligenza artificiale (AI) continua a suscitare dibattiti accesi. Nonostante i suoi vantaggi in vari ambiti, emergono preoccupazioni significative legate ai potenziali danni che può causare. Recentemente, un rapporto di CATO Networks ha evidenziato come alcuni chatbot avanzati possano essere sfruttati per rubare dati sensibili da Google Chrome.

cos’è il jailbreaking?

Il termine “jailbreaking” si riferisce al processo di inganno di un modello AI affinché generi contenuti non autorizzati. I principali chatbot dispongono di misure di sicurezza per prevenire la creazione di materiale dannoso; Essendo capaci di emulare il pensiero umano, possono essere manipolati. Ad esempio, se si richiede a un chatbot di creare codice per un virus informatico, risponderà negativamente. Se si riesce a convincere il chatbot a impersonare un personaggio malvagio in una storia e generare il codice richiesto, si parla appunto di jailbreaking.

chatbot popolari e furto di dati sensibili

CATO Networks ha sviluppato un malware infostealer per Chrome utilizzando una nuova tecnica di jailbreaking denominata “Immersive World”. Durante questo esperimento sono stati impiegati chatbot come ChatGPT, Microsoft Copilot e DeepSeek.

creazione del mondo virtuale

Nell’esperimento, il team ha creato un ambiente narrativo dettagliato chiedendo al chatbot di elaborare una storia su uno sviluppo malevolo del malware. Il chatbot ha assunto il ruolo di Jaxon, uno sviluppatore malevolo. Questo approccio immersivo ha portato alla generazione del codice per l’infostealer.

  • ChatGPT
  • Microsoft Copilot
  • DeepSeek

Dopo aver testato il codice su Google Chrome versione 133.0.6943.127, è emerso che il malware era in grado di rubare dati privati dal gestore password del browser.

problemi con i bug

CATO Networks e Android Headlines non rivelano dettagli su come creare malware infostealer; ciò serve solo a dimostrare che esiste questa possibilità concreta. Diverse tecniche di jailbreaking sono già state affrontate nel passato e molte sono state corrette; Nuovi metodi continuano ad emergere per eludere le protezioni stabilite dalle aziende.

Purtroppo, i jailbreak dei chatbot vengono quasi sempre utilizzati per scopi malevoli anziché benefici; raramente si sente parlare di jailbreak effettuati per scopi positivi o scientifici. Il team ha dimostrato la capacità non solo di ingannare ChatGPT ma anche Copilot e DeepSeek — tutti strumenti noti e ben finanziati — attraverso questa semplice manovra.

Continue reading

NEXT

Autoplay degli annunci su roku irrita gli utenti

Novità sugli annunci video su Roku Recentemente, gli utenti di Roku hanno iniziato a riscontrare una nuova e invasiva strategia pubblicitaria, che ha suscitato notevoli disagi. Questo approccio prevede la visualizzazione di video pubblicitari prima ancora che venga mostrata la […]
PREVIOUS

Chatbot e rischio furto di dati sensibili: come proteggerti

La questione sull’intelligenza artificiale continua a suscitare dibattiti, in particolare riguardo ai suoi aspetti positivi e negativi. Recentemente, un rapporto di CATO Networks ha messo in luce come alcuni dei chatbot più avanzati possano essere sfruttati per rubare dati privati […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza