ai e notizie: risultati di un’indagine approfondita
Il panorama attuale delle applicazioni di intelligenza artificiale rivela alcune criticità significative, come evidenziato da un recente studio condotto dalla BBC. Questa analisi ha coinvolto vari chatbot ai, tra cui Gemini e ChatGPT, e ha messo in luce i problemi di affidabilità riscontrati nei riassunti delle notizie. Con oltre la metà delle sintesi risultanti classificate dai giornalisti come contenenti “questioni significative”, l’indagine ha sollevato interrogativi sull’accuratezza di tali strumenti.
metodologia dello studio
La BBC ha alimentato vari chatbot con contenuti provenienti da 100 articoli di notizie. Dopo aver richiesto dei riassunti, il materiale è stato esaminato da giornalisti esperti nel tema trattato, che hanno valutato la qualità delle sintesi. I risultati rivelano che 51% delle risposte fornite dalle AI presentava “problemi significativi”. Inoltre, quasi 20% delle sintesi era affetto da netti errori fattuali.
esempi di errori riscontrati
Tra gli errori specifici evidenziati dallo studio si riscontrano:
- Gemini ha erroneamente dichiarato che il NHS non raccomandava il vaping per smettere di fumare.
- ChatGPT e Copilot hanno affermato che Rishi Sunak e Nicola Sturgeon erano ancora in carica, nonostante si fossero dimessi.
- Perplexity ha mal interpretato una notizia del BBC riguardante il Medio Oriente, affermando che l’Iran inizialmente mostrava “autocontrollo” e definendo le azioni di Israele come “aggressive”.
un risultato non sorprendente
I risultati dell’indagine non sorprendono chi ha seguito l’evoluzione dell’intelligenza artificiale negli ultimi anni. Nonostante gli ingenti investimenti in ricerca e sviluppo, l’affidabilità delle applicazioni di AI continua a destare preoccupazione. I chatbot AI come Gemini e ChatGPT si presentano con l’avvertenza di verificare l’accuratezza dei risultati.
conseguenze delle scoperte
Recentemente, Apple ha sospeso una funzionalità di iOS dedicata alla sintesi delle notizie a causa di risultati simili a quelli della BBC. L’aspetto positivo proviene da una nuova funzionalità prevista su Google TV, la quale includerà risultati sintetizzati dall’AI, ma con controllo umano per assicurare maggiore affidabilità. Questa scelta sembra necessaria, poiché coinvolgere una persona nel verificare un riassunto generato da un’AI suggerisce l’importanza di una redazione manuale nelle fasi di sintesi delle notizie.
Lascia un commento