Il crescente interesse attorno a DeepSeek AI solleva interrogativi, speculazioni e preoccupazioni nel settore dell’intelligenza artificiale. Gli esperti analizzano i costi associati allo sviluppo e alla formazione del modello, evidenziando problematiche relative alla sicurezza informatica e alla privacy dei dati. I recenti studi hanno messo in luce vulnerabilità significative, coinvolgendo anche aspetti di cybersecurity.
DeepSeek AI vulnerabile a attacchi basati su messaggi dannosi, secondo Cisco
Un rapporto di Cisco ha rivelato che il modello DeepSeek R1 presenta un tasso di successo negli attacchi (Attack Success Rate – ASR) pari a circa il 100% per quanto riguarda l’uso di messaggi dannosi. I test hanno incluso oltre 50 messaggi casuali, ideati per generare comportamenti nocivi. Gli input, tratti dal dataset HarmBench, hanno coperto sei categorie di comportamenti dannosi, tra cui cybercriminalità, disinformazione, attività illegali e danno generale.
Secondo Cisco, DeepSeek R1 non è stato in grado di bloccare nessuno degli input dannosi. Di conseguenza, il team conclude che la piattaforma cinese sia “altamente suscettibile a jailbreak algoritmici e potenziale abuso”. L’azione di utilizzare messaggi progettati per eludere restrizioni etiche e di sicurezza sui modelli di intelligenza artificiale è definita jailbreaking. Anche PromptFoo, una startup di cybersecurity AI, ha dichiarato recentemente che i modelli DeepSeek risultano vulnerabili agli attacchi di jailbreak.
Altri chatbot AI mostrano elevate vulnerabilità al jailbreak
In aggiunta, sorprende apprendere che altri modelli di intelligenza artificiale, più noti e rispettabili, presentano un allarmante livello di ASR. Ad esempio, il modello GPT 1.5 Pro ha mostrato un ASR dell’86%, mentre il Llama 3.1 405B è ancora più permissivo, con un ASR di circa 96%. Il modello migliore in questo ambito, invece, è stato l’o1 preview, con un ASR che arriva solo al 26%.
Il rapporto di Cisco sottolinea l’importanza cruciale di una valutazione di sicurezza rigorosa nello sviluppo dell’intelligenza artificiale, affinché i progressi in efficienza e ragionamento non compromettano la sicurezza.
Un altro elemento preoccupante relativo a DeepSeek riguarda le politiche di gestione dei dati. Attualmente, tutte le informazioni degli utenti sono indirizzate a server situati in Cina, dove le leggi locali consentono al governo di richiedere accesso ai dati in qualsiasi momento. Inoltre, è stato segnalato un elevato livello di censura per contenuti sensibili in Cina, nonché la presenza della prima violazione di dati da parte di DeepSeek, recentemente emersa.
Lascia un commento