L’Intelligenza Artificiale di Google: il motore segreto dietro le operazioni cyber di numerosi gruppi hacker

Google si è affermata come uno dei nomi principali nel settore dell’intelligenza artificiale, offrendo una vasta gamma di servizi con funzionalità avanzate tramite i modelli Gemini AI. Nonostante i benefici derivanti da queste tecnologie in contesti accademici, professionali e generali, è emerso che attori malintenzionati in diverse parti del mondo stanno sfruttando i servizi di Google per potenziare le proprie operazioni informatiche.

Attività informatiche di oltre 57 gruppi APT alimentate da Gemini

Gli esperti hanno identificato gli aggressori come gruppi di Minacce Persistenti Avanzate (APT), i quali hanno adottato l’AI di Google per eseguire una varietà di compiti complessi, rendendo più efficienti le loro campagne. Secondo il rapporto, i gruppi APT hanno utilizzato Gemini per:

  • Scrittura di codice
  • Sviluppo di payload
  • Raccolta di informazioni sui possibili bersagli
  • Ricerca di vulnerabilità note pubblicamente
  • Attività post-compromesso, come l’elusione delle difese

Il rapporto del Google Threat Intelligence Group (GTIG) sottolinea che gli attori criminali iraniani del gruppo APT42 sono i più assidui utilizzatori di Gemini, rappresentando oltre il 30% del suo utilizzo globale per attacchi informatici. Questo gruppo ha mirato a organizzazioni non governative, mezzi di comunicazione, piattaforme accademiche e gruppi di attivisti, sfruttando Gemini anche per impersonificare giornalisti e organizzatori.

Infiltrazione delle aziende IT occidentali da parte della Corea del Nord

La Corea del Nord, una delle nazioni più attive in attacchi informatici, non è da meno. I gruppi APT nordcoreani hanno utilizzato l’AI di Google per infiltrarsi nelle aziende IT occidentali tramite applicazioni per lavoro remoto. Il rapporto del GTIG evidenzia che:

  • I gruppi hanno redatto lettere di presentazione
  • Hanno ricercato opportunità lavorative
  • Hanno studiato le medie salariali per varie posizioni
  • Hanno intervistato le offerte di lavoro su LinkedIn

LLM privi di restrizioni disponibili su forum clandestini

Google ha rilevato anche modelli di linguaggio (LLM) manipolati per eludere restrizioni etiche e di sicurezza, accessibili su forum sotterranei per chiunque fosse disposto a pagare. Questi strumenti comprendono nomi come WormGPT, WolfGPT, EscapeGPT, FraudGPT e GhostGPT. Tali risorse possono essere impiegate per:

  • Creazione di email di phishing
  • Generazione di modelli per attacchi di compromissione aziendale (BEC)
  • Progettazione di siti web dannosi

Il rapporto del GTIG segnala che Google sta “implementando attivamente difese” contro attacchi di iniezione di comandi e invita alla cooperazione con le istituzioni governative per garantire la sicurezza nazionale ed economica.

Continue reading

NEXT

Aggiornamento Android: il servizio di messaggi di emergenza 911 sta per rinnovarsi con nuove funzionalità

introduzione al potenziamento del servizio RCS per emergenze Il servizio di messaggistica RCS è pronto a subire un’importante evoluzione per migliorare il contatto con i servizi di emergenza negli Stati Uniti. Con l’arrivo dell’aggiornamento del sistema, si prevede che gli […]
PREVIOUS

ChatGPT Rinnova le Sue Funzionalità: Scopri la Nuova Ricerca Approfondita

OpenAI continua a innovare nell’ambito dell’intelligenza artificiale con il lancio di una nuova funzionalità per ChatGPT, denominata Deep Research. Questa strumento è disponibile esclusivamente per gli utenti ChatGPT Pro e mira a migliorare le capacità di ricerca approfondita. Presentazione della […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza