Nel panorama attuale del settore tecnologico, emergono notizie curiose che sorprendono per la loro natura surreale. L’intelligenza artificiale è sempre più integrata nelle attività quotidiane, rendendo inevitabile l’emergere di situazioni insolite. Un esempio interessante è rappresentato da una legge del Minnesota riguardante i contenuti generati dall’IA, conosciuta come “deepfake”, la quale si sospetta possa essere stata redatta da un’IA.
Possibile coinvolgimento dell’IA nella legge anti-deepfake del Minnesota
La legge di riferimento, intitolata “Uso della Tecnica Deep Fake per Influenzare un’Elettorato”, è attualmente oggetto di contestazione per presunti elementi di intelligenza artificiale nel suo testo. Sebbene non si faccia menzione diretta alla redazione di paragrafi tramite IA, il documento include citazioni di studi che non risultano effettivamente esistere.
Hallucinations dell’IA e informazioni errate
È plausibile che le citazioni menzionate siano il prodotto di “hallucinations” dell’IA, termine che indica le informazioni errate o del tutto inventate generate dal sistema. I programmatori di chatbot basati su IA lavorano intensamente per minimizzare tali errori, ma una piccola percentuale di risposte inaccurate persiste a causa di queste anomalie.
Citazioni di fonti inesistenti come potenziali allucinazioni dell’IA
Secondo le informazioni riportate, il giudice del caso, Keith Ellison, ha richiesto a Jeff Hancock, direttore del Stanford Social Media Lab, una relazione sul tema della legge. Durante l’analisi, è emerso che tra le citazioni figuravano studi inesistenti. Tra questi, “L’influenza dei video deepfake sulle attitudini e i comportamenti politici” pubblicato nel Journal of Information Technology & Politics, che risulta non avere alcun riscontro.
Ulteriori citazioni sospette
Un’altra citazione, “Deepfakes e l’illusione di autenticità: processi cognitivi dietro l’accettazione della disinformazione”, è anch’essa mancante di registrazioni valide. Le argomentazioni sollevate dai legali di Mary Franson, rappresentante dello stato del Minnesota, e Mr. Reagan, un noto YouTuber conservatore, attestano che “la citazione mostra segni di essere un’‘hallucination’ da parte dell’intelligenza artificiale, suggerendo che almeno tale riferimento sia stato generato da un grande modello di linguaggio simile a ChatGPT.”
Il ricorso sottolinea: “Le parti attrici non comprendono come questa allucinazione sia finita nella dichiarazione di Hancock, ma ciò mette in discussione l’intero documento, specialmente alla luce del fatto che gran parte dei commenti non mostra né metodologia né logica analitica.”
Lascia un commento