Google si è affermata come uno dei nomi principali nel settore dell’intelligenza artificiale, offrendo una vasta gamma di servizi con funzionalità avanzate tramite i modelli Gemini AI. Nonostante i benefici derivanti da queste tecnologie in contesti accademici, professionali e generali, è emerso che attori malintenzionati in diverse parti del mondo stanno sfruttando i servizi di Google per potenziare le proprie operazioni informatiche.
Attività informatiche di oltre 57 gruppi APT alimentate da Gemini
Gli esperti hanno identificato gli aggressori come gruppi di Minacce Persistenti Avanzate (APT), i quali hanno adottato l’AI di Google per eseguire una varietà di compiti complessi, rendendo più efficienti le loro campagne. Secondo il rapporto, i gruppi APT hanno utilizzato Gemini per:
- Scrittura di codice
- Sviluppo di payload
- Raccolta di informazioni sui possibili bersagli
- Ricerca di vulnerabilità note pubblicamente
- Attività post-compromesso, come l’elusione delle difese
Il rapporto del Google Threat Intelligence Group (GTIG) sottolinea che gli attori criminali iraniani del gruppo APT42 sono i più assidui utilizzatori di Gemini, rappresentando oltre il 30% del suo utilizzo globale per attacchi informatici. Questo gruppo ha mirato a organizzazioni non governative, mezzi di comunicazione, piattaforme accademiche e gruppi di attivisti, sfruttando Gemini anche per impersonificare giornalisti e organizzatori.
Infiltrazione delle aziende IT occidentali da parte della Corea del Nord
La Corea del Nord, una delle nazioni più attive in attacchi informatici, non è da meno. I gruppi APT nordcoreani hanno utilizzato l’AI di Google per infiltrarsi nelle aziende IT occidentali tramite applicazioni per lavoro remoto. Il rapporto del GTIG evidenzia che:
- I gruppi hanno redatto lettere di presentazione
- Hanno ricercato opportunità lavorative
- Hanno studiato le medie salariali per varie posizioni
- Hanno intervistato le offerte di lavoro su LinkedIn
LLM privi di restrizioni disponibili su forum clandestini
Google ha rilevato anche modelli di linguaggio (LLM) manipolati per eludere restrizioni etiche e di sicurezza, accessibili su forum sotterranei per chiunque fosse disposto a pagare. Questi strumenti comprendono nomi come WormGPT, WolfGPT, EscapeGPT, FraudGPT e GhostGPT. Tali risorse possono essere impiegate per:
- Creazione di email di phishing
- Generazione di modelli per attacchi di compromissione aziendale (BEC)
- Progettazione di siti web dannosi
Il rapporto del GTIG segnala che Google sta “implementando attivamente difese” contro attacchi di iniezione di comandi e invita alla cooperazione con le istituzioni governative per garantire la sicurezza nazionale ed economica.
Lascia un commento