Con il crescente utilizzo di strumenti di intelligenza artificiale, la sicurezza informatica si trova al centro di una nuova sfida. Un aspetto significativo di questa questione è rappresentato dall’uso di modelli AI, come Google Gemini, da parte di attori malevoli. Sebbene il numero di software dannosi sia aumentato, ci sono notizie confortanti sul fallimento di tali tentativi.
Il fallimento degli hacker nell’uso di Google Gemini
Google non monitorizza attivamente gli utenti di Gemini, ma coloro che tentano di sfruttare la piattaforma per attività illecite, come l’hacking di grandi aziende, possono attirare l’attenzione dell’azienda. Recentemente, è emerso che diversi gruppi di hacker hanno cercato di utilizzare Gemini per migliorare le proprie competenze nel campo della pirateria informatica.
- 10 gruppi in Iran
- 9 gruppi in Corea del Nord
- 20 gruppi in Cina
- Alcuni gruppi in Russia
Grazie ai rigidi protocolli di sicurezza implementati da Google, tali tentativi si sono rivelati infruttuosi, portando a guadagni di “produttività” limitati. Google ha dichiarato che alcuni attori malevoli hanno cercato di ricevere indicazioni su abusi di prodotti Google, tra cui tecniche avanzate di phishing per Gmail.
Tipologie di tentativi di sfruttamento
Le aree principali in cui i gruppi hanno cercato di utilizzare Gemini includono:
- Assistenza nella codifica di un infostealer per Chrome
- Metodi per superare i metodi di verifica della creazione degli account Google
Nonostante gli sforzi, le loro capacità di generare malware si sono dimostrate molto limitate. Piuttosto che come strumenti per attaccare, molti di questi gruppi hanno utilizzato Gemini per scopi di ricerca, come studi su organizzazioni di difesa e vulnerabilità.
Utilizzi alternativi di Google Gemini da parte dei gruppi malevoli
Alcuni gruppi hanno impiegato Gemini nel miglioramento e nella localizzazione di contenuti, nella correzione di codice e in altre attività correlate. Questa dinamica è simile all’acquisto di un robot progettato per pulire casa, ma che si rivela utile solo per spazzare.
Questi eventi dimostrano l’efficacia di Google nel mantenere i propri strumenti AI al sicuro da tentativi di sfruttamento. In un contesto in cui l’accesso a tecnologie avanzate diventa sempre più diffuso, la protezione contro abusi è fondamentale.
Lascia un commento