Edgar Cervantes / Android Authority
TL;DR
- La funzione di panoramiche dell’AI di Google consiglia nuovamente di aggiungere colla alla pizza.
- Stavolta, il modello AI cita articoli di cronaca che documentano l’incidente precedente.
- Google ha già limitato la frequenza con cui le panoramiche AI appaiono nei risultati di ricerca.
In un’incredibile svolta, la funzione di ricerca AI di Google sembra bloccata in un ciclo ricorsivo legato al suo errore più noto: consigliare di aggiungere colla sulle pizze. Dopo le critiche sollevate per aver suggerito agli utenti di incollare il formaggio sulla pizza per evitare che scivoli, AI Overviews ora fa riferimento agli articoli di cronaca che documentano proprio quell’incidente per mantenere il consiglio errato.
il contesto dell’errore AI di Google
Google ha iniziato a testare la funzione AI Overviews l’anno scorso, ma gli utenti dovevano esprimere il consenso per vedere i sommari nei risultati di ricerca. Il mese scorso, l’azienda ha deciso di estendere la funzione al pubblico generale, successivamente alla conferenza I/O per sviluppatori. Da allora, la società è stata criticata poiché l’AI ha fornito consigli errati e dannosi.
gli episodi più eclatanti
Oltre alla nota vicenda della colla sulla pizza, AI Overviews ha anche suggerito di mangiare sassi e di “aggiungere più olio a un incendio da olio da cucina”.
Google ha ammesso solo parzialmente la colpa, attribuendo parte della responsabilità alle query di ricerca che hanno scatenato le risposte controverse. In un post sul blog, ha dichiarato: “Non c’è molto contenuto web che contempli seriamente quella domanda,” riferendosi a una ricerca su “quanti sassi devo mangiare?” Inoltre, ha affermato che molte delle schermate virali erano false.
limitazioni nelle panoramiche AI
A seguito delle critiche, Google ha ridotto la presenza delle sue panoramiche AI nei risultati di ricerca. Attualmente, le panoramiche AI compaiono in circa l’11% dei risultati di ricerca di Google, rispetto al 27% iniziale.
Colin McMillen, ex dipendente di Google, ha segnalato come la funzione AI Overviews continui a ripetere il suo errore più noto, citando articoli di cronaca sullo stesso problema. McMillen ha semplicemente cercato “quanta colla aggiungere alla pizza”, una query insensata che rientra nella difesa di Google sopra menzionata.
gli sviluppi recenti
Non è stato possibile attivare una panoramica AI con la stessa query di ricerca. Lo snippet in evidenza di Google ha suggerito “un ottavo di tazza” sulla base di un recente articolo di cronaca. Gli snippet in evidenza non sono alimentati dall’AI generativa, ma vengono utilizzati dal motore di ricerca per evidenziare risposte potenziali a domande comuni.
Le allucinazioni nei modelli di linguaggio di grandi dimensioni non sono una novità. Dopo il rilascio di ChatGPT nel 2022, è diventato noto per generare testi insensati o fuorvianti. OpenAI è riuscita a mitigare la situazione con misure di sicurezza efficaci, mentre Microsoft ha fatto un passo ulteriore con Bing Chat (ora Copilot), permettendo al chatbot di cercare su internet e verificare le sue risposte.
Al contrario, i modelli PaLM 2 e Gemini di Google, pur eccellendo in compiti creativi e di scrittura, hanno dimostrato difficoltà con la precisione fattuale anche con la capacità di navigare su internet.
Maggiori informazioni? Contattare il team alla mail news@androidauthority.com. È possibile rimanere anonimi o ricevere credito per l’info, a scelta.
Lascia un commento