Recentemente è emersa una questione intrigante riguardante la legislazione contro le tecnologie di deepfake. È stato rivelato che una parte dei materiali presentati a sostegno di questa legge potrebbe essere stata prodotta da un’intelligenza artificiale. Il principale sostenitore della normativa ha conosciuto che ha utilizzato ChatGPT nella stesura della sua documentazione legale.
il contesto della legge “anti AI” in Minnesota
La legislazione, nota come “Utilizzo della Tecnologia Deepfake per Influenzare un’Elezione”, è attualmente oggetto di contestazione. Jeff Hancock, direttore fondatore del Stanford Social Media Lab e specialista nella lotta alla disinformazione, ha presentato argomentazioni a favore della legge. È importante notare che la normativa si concentra esclusivamente su piattaforme centrate sui deepfake, escludendo una condanna generalizzata all’intelligenza artificiale. Essa si rivolge ai servizi di intelligenza artificiale capaci di creare contenuti realistici che possono generare confusione.
La sfida alla legge è condotta da Christopher Khols, un famoso YouTuber conservatore, e Mary Franson, rappresentante statale del Minnesota. Questi hanno identificato schemi nell’uso dell’AI evidenziati nella sezione citazioni della documentazione di Hancock. In particolare, è emerso che la suddetta sezione includeva riferimenti a fonti e studi che non esistono, suggerendo che tali citazioni fittizie erano il risultato di “allucinazioni” dell’intelligenza artificiale. Pertanto, il ricorrente ha richiesto l’esclusione del documento dal caso per la sua inaffidabilità.
l’ammissione sull’uso di ChatGPT nella documentazione legale
In risposta, Jeff Hancock ha ammesso di avere impiegato ChatGPT per la sua documentazione legale. Ha sottolineato che non ha utilizzato il servizio di OpenAI per redigere gli argomenti a sostegno della sua causa. Hancock ha dichiarato: “Ho scritto e revisionato il contenuto della dichiarazione e supporto fermamente ciascuna delle affermazioni fatte, tutte assolutamente basate su ricerche scientifiche recenti e che riflettono la mia opinione di esperto sugli effetti della tecnologia AI sulla disinformazione e sulle sue ripercussioni sociali.”
La ragione per cui Hancock ha fatto uso di ChatGPT risiede nel tentativo di migliorare la sezione citazioni del documento. Secondo la sua ultima dichiarazione, ha utilizzato l’AI “per identificare articoli che potessero essere rilevanti per la dichiarazione in modo da integrare ciò che già conoscevo con nuove ricerche.”
Il ricercatore ha affermato di non avere assolutamente l’intenzione di fuorviare il tribunale e si è scusato “per eventuali confusione che possano essere state causate dall’uso dell’AI.” Nonostante questo, sostiene la validità dell’intero contenuto del documento. La rilevazione dell’uso di AI in una sezione della presentazione potrebbe compromettere la credibilità del resto della documentazione. La ricezione da parte del giudice delle spiegazioni fornite da Hancock risulterà determinante per lo sviluppo del caso.
Lascia un commento