Attualmente, l’attenzione si concentra fortemente sull’Intelligenza Artificiale (AI), con numerosi dibattiti riguardo alle sue potenzialità e ai rischi associati. Un recente rapporto di Oligo Security ha riportato l’attenzione su questioni di sicurezza inerenti a uno dei modelli linguistici di Meta, il Llama LLM, evidenziando una vulnerabilità significativa.
vulnerabilità di sicurezza
Il modello Llama di Meta comprende una serie di modelli di linguaggio di grandi dimensioni progettati per comprendere e generare input simile a quello umano. Questa tecnologia è simile ad altri LLM, come quelli di Google e OpenAI.
Il report di Oligo Security ha rivelato un difetto identificato come CVE-2024-50050, scoperto nel settembre dell’anno scorso all’interno di un componente noto come Llama Stack. Se sfruttata dai malintenzionati, questa vulnerabilità avrebbe consentito l’accesso ai sistemi di Meta. Gli hacker avrebbero potuto eseguire codice da remoto, con il rischio di installare software malevoli. L’origine del problema sembra derivare dalla scelta di pickle come formato di serializzazione per la comunicazione socket.
Secondo le parole di Avi Lumelsky, ricercatore di Oligo Security: “Le versioni colpite di meta-llama sono vulnerabili alla deserializzazione di dati non attendibili, il che significa che un attaccante può eseguire codice arbitrario inviando dati malevoli da deserializzare.”
problema risolto
Nonostante la serietà della questione, il problema è stato risolto. I ricercatori hanno inizialmente avvisato Meta della vulnerabilità nel settembre 2024, e l’azienda ha prontamente implementato una soluzione a ottobre. Pertanto, attualmente, il Llama LLM di Meta è al sicuro da questo tipo di vulnerabilità.
Oltre alla correzione, Meta ha distribuito un advisory di sicurezza per comunicare alla comunità la risoluzione del rischio di esecuzione di codice remoto, rivelando che il metodo adottato per affrontare il problema consisteva nel passare al formato JSON.
Questa situazione mette in luce un’importante considerazione: per quanto affascinante possa sembrare l’uso dell’AI, essa rimane una tecnologia relativamente nuova e, come tale, è suscettibile a vulnerabilità e bug, similmente a qualsiasi altro software.
Meta non è l’unica azienda che ha affrontato difetti nei propri sistemi AI, poiché anche OpenAI ha riscontrato vulnerabilità che avrebbero potuto compromettere la sicurezza, come indicato da Benjamin Flesch, esperto di sicurezza, il quale ha notato difetti anche nel crawler di ChatGPT.
Lascia un commento