Google ha recentemente rilasciato la funzione AI Overview negli Stati Uniti, con l’obiettivo di arricchire alcune query di ricerca con una risposta generata dall’intelligenza artificiale. L’esperienza iniziale ha mostrato numerosi problemi, con risultati che vanno dal bizzarro e divertente fino all’inaccuratezza pericolosa. Questo ha sollevato preoccupazioni sulla necessità di sospendere la funzione.
problemi dell’introduzione dell’AI Overview
contenuti inaccurati e pericolosi
Il modello di Google genera risposte riassumendo i contenuti dei risultati principali per la query di ricerca, ma non sempre i risultati più popolari sono anche i più accurati. Questo può portare alla diffusione di informazioni pericolose. Ad esempio, Tim Keck de The Onion ha mostrato come l’AI Overview suggerisse di mangiare “almeno una piccola roccia al giorno”, riportando un articolo satirico.
L’utente Peter Yang ha evidenziato un altro caso in cui l’AI Overview consigliava di aggiungere “1/8 di tazza di colla non tossica alla salsa” per risolvere il problema del formaggio che non si attacca alla pizza, basandosi su un commento di Reddit molto vecchio.
frequenza delle risposte inappropriate
Non tutte le query attivano una risposta di AI Overview, ma i risultati dei test mostrano che il 36% delle query riguardanti salute o finanza generano una risposta dell’AI. Questo è particolarmente preoccupante per domande serie come “segnali di un ictus” o “come trattare una bruciatura”, che potrebbero avere implicazioni gravi per la salute delle persone.
altri errori significativi
esempi di cattive risposte dall’AI Overview
Numerosi utenti hanno condiviso online altri esempi di risposte problematiche dell’AI Overview:
- L’utente @dril ha segnalato un consiglio di bere “almeno 2 litri di urina ogni 24 ore”.
- L’utente @allgarbled ha mostrato una risposta che suggeriva il suicidio come rimedio alla depressione.
- L’utente @napalmtrees ha catturato un esempio che affermava fosse sicuro lasciare un cane in un’auto calda, basandosi su una canzone dei Beatles.
- L’utente @veryimportant ha trovato l’informazione che un cane avesse giocato nell’NBA.
- L’utente @JoeMaring1 ha segnalato che l’AI Overview riassumeva come un personaggio di SpongeBob fosse morto per overdose, un fatto inesistente.
considerazioni finali
Google dovrebbe considerare la rimozione temporanea della funzione AI Overview fino a ulteriori test. Non solo vengono fornite informazioni potenzialmente dannose, ma c’è anche il rischio di danneggiare il marchio di Google, soprattutto dato l’interesse attuale per le tecnologie di intelligenza artificiale.
Secondo un portavoce di Google, la maggior parte delle AI Overviews fornisce informazioni di alta qualità, e i problemi osservati sono rari. Google ha affermato di star agendo rapidamente per migliorare il sistema e attuare le misure appropriate.
Lascia un commento