YouTube contro le repliche AI delle persone

Riepilogo: YouTube ha annunciato il proprio supporto per il “No Fakes Act”, una proposta legislativa mirata a stabilire regole per l’uso dell’immagine generata dall’IA online. Questa iniziativa, presentata nel 2023 e nel 2024, ha riacquistato slancio recentemente.

Attualmente si sta manifestando un significativo problema nel mondo dell’intelligenza artificiale. L’esplosione delle tecnologie di deepfake ha reso la creazione di video falsi molto più semplice ed accessibile. Ciò comporta la possibilità di realizzare filmati in cui individui appaiono fare o dire cose che in realtà non hanno mai fatto, facilitando così la diffusione di frodi e disinformazione.

Esempi concreti di questa problematica sono già emersi. Due senatori, Chris Coons e Marsha Blackburn, hanno elaborato il Nurture Originals, Foster Art, and Keep Entertainment Safe (NO FAKES) Act. Inizialmente proposto nel 2023, questo atto mira a promuovere l’arte e la creatività nell’ambito dell’IA.

Sebbene il disegno di legge abbia incontrato alcune opposizioni nel corso degli anni, altre entità come SAG-AFTRA e la Recording Industry Association lo sostengono attivamente.

supporto di YouTube al NO FAKES Act

YouTube, quale principale piattaforma mondiale per la condivisione di video lunghi, si trova ad affrontare una grande responsabilità: “Con un grande potere arriva una grande responsabilità”. La presenza di video deepfake sulla piattaforma può avere conseguenze devastanti per le carriere degli individui coinvolti.

Di conseguenza, è fondamentale che YouTube prenda misure adeguate. È pertanto positivo sapere che ha espresso il suo supporto per il progetto di legge. Nella sua dichiarazione ufficiale, l’azienda ha affermato: “Man mano che l’IA continua a evolversi, ci impegniamo a garantire un uso responsabile della tecnologia, soprattutto nella protezione dei creatori e degli spettatori.”

Secondo una revisione del progetto effettuata lo scorso anno, le piattaforme che ospitano contenuti deepfake (come YouTube) non saranno ritenute responsabili se rimuovono tali materiali su richiesta. Pertanto, se qualcuno crea un video in cui appare mentre compie azioni inappropriate, YouTube non sarà tenuta a risponderne a meno che non ignori una richiesta legittima di rimozione.

Nella sua comunicazione ufficiale, YouTube ha anche annunciato l’espansione del programma pilota dedicato alla “gestione delle immagini”. Questo sistema consente ai creatori di individuare quando viene realizzato un deepfake nei loro confronti e facilita la rimozione del contenuto indesiderato. Tra i nuovi membri del programma figurano nomi noti come MrBeast, Mark Rober e Marques Brownlee (MKBHD).

Continue reading

NEXT

Xiaomi acquista brevetti lg per potenziare smartphone e ridurre rischi legali

lg trasferisce brevetti a xiaomi: dettagli della transazione Nel mese di gennaio, LG Electronics ha ceduto 59 brevetti americani relativi ai codec video a Xiaomi Technology Co., Ltd. Queste tecnologie sono fondamentali per la compressione e la decodifica dei video, […]
PREVIOUS

Proton mail ricostruisce da zero l’app per android

proton mail: aggiornamenti significativi in arrivo Proton Mail, il servizio di posta elettronica svizzero focalizzato sulla privacy, sta per subire un’importante ristrutturazione. La nuova versione dell’app per Android e iOS sarà disponibile questa estate e promette prestazioni superiori e nuove […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza