Recentemente, gli utenti di Instagram hanno espresso un forte malcontento riguardo ai contenuti visualizzati nei Reels. In particolare, si è assistito a un aumento di video violenti, grafici e inquietanti, che hanno suscitato preoccupazione tra la comunità. Questo fenomeno ha messo in luce le sfide della piattaforma nel mantenere il controllo sui contenuti condivisi.
contenuti grafici su Instagram
Numerosi utenti hanno segnalato la presenza di contenuti disturbanti nei loro feed di Reels. Nonostante l’attivazione del “Controllo dei Contenuti Sensibili” al massimo livello, molti hanno continuato a imbattersi in video classificabili come violenti. Il sistema di moderazione di Meta non è riuscito a filtrare adeguatamente tali contenuti, permettendo loro di apparire nei Reels.
Secondo le linee guida stabilite da Meta, i contenuti problematici comprendono “video che mostrano smembramenti, organi visibili o corpi carbonizzati,” insieme a “commenti sadici riguardanti immagini che rappresentano la sofferenza umana e animale.” Per questo motivo, alcuni Reels possono presentare avvisi per contenuto sensibile, bloccando automaticamente la riproduzione fino a quando l’utente non sceglie se visualizzarli o meno.
Meta giustifica talvolta la presenza di questi video affermando che possano contribuire ad aumentare la consapevolezza su determinati temi.
responsabilità di Instagram verso gli utenti
Sebbene Meta abbia risolto il problema relativo ai Reels, questo episodio evidenzia una questione più ampia: le piattaforme social continuano a lottare per controllare i contenuti presenti nei feed degli utenti. Anche altre piattaforme come TikTok, Twitter/X, Facebook e YouTube hanno affrontato critiche simili per il passaggio di contenuti inappropriati o fuorvianti attraverso i loro sistemi di moderazione.
In passato, le aziende si affidavano principalmente a moderatori umani per rimuovere tali contenuti prima che raggiungessero un vasto pubblico. Questa pratica si è dimostrata inefficace e solleva questioni etiche legate all’esposizione delle persone a materiali disturbanti. L’intelligenza artificiale potrebbe offrire una soluzione; Essa presenta ancora limitazioni significative. Pertanto, sarebbe opportuno che queste aziende considerassero un approccio diverso: disattivare gli algoritmi e consentire agli utenti di fare le proprie scelte liberamente.
Lascia un commento