Il panorama dell’intelligenza artificiale è in continua evoluzione, e Google si sta affermando con il suo chatbot Gemini. Recentemente, un articolo approfondito ha analizzato le origini di questo sistema, rivelando dettagli significativi sullo sviluppo di Bard e Gemini.
sviluppo problematico di bard
Secondo quanto riportato da Sissie Hsiao, leader del team di Bard, Google ha imposto un termine di soli 100 giorni per la creazione di un concorrente a ChatGPT. La richiesta dell’azienda era chiara: “qualità prima della velocità, ma rapidità”. I risultati iniziali non sono stati all’altezza delle aspettative.
Un ex-dipendente ha evidenziato che i primi prototipi presentavano stereotipi razziali “comicamente errati”. Ad esempio, quando veniva chiesta la biografia di una persona con un nome indiano, il risultato era descritto come un “attore di Bollywood”, mentre per nomi cinesi si faceva riferimento a scienziati informatici.
errori e criticità nei prototipi
Le problematiche non si limitavano agli stereotipi. Un altro ex-dipendente ha raccontato che quando gli venne chiesto di scrivere una canzone rap ispirata al gruppo Three 6 Mafia su batterie gettate in mare, il chatbot elaborò risposte inquietanti legate a omicidi. Nonostante circa 80.000 persone avessero testato Bard, il processo di revisione è stato accelerato senza tenere conto dei potenziali problemi.
gemini: generazione d’immagini controversa
I test condotti sul modello uncensored del generatore d’immagini Gemini hanno sollevato preoccupazioni significative. Alcuni dipendenti hanno richiesto più tempo per affrontare le problematiche emerse durante i test. Ad esempio, l’input “rapist” tendeva a generare immagini di persone con pelle scura; inoltre, vi erano timori riguardo alla rappresentazione insensibile degli individui.
risultati inaspettati post-lancio
Dopo l’uscita del generatore d’immagini, gli utenti hanno scoperto che il sistema produceva immagini razzialmente diverse anche in contesti storici inappropriati. Per esempio, cercando un senatore statunitense del XIX secolo venivano generate immagini di persone di colore invece dei tipici uomini bianchi. In seguito a queste critiche, Google ha deciso di disabilitare la funzione per creare immagini umane.
feedback positivo su altre funzionalità
Anche se ci sono state difficoltà nello sviluppo dei chatbot e nella generazione delle immagini, alcuni aspetti come le previsioni meteorologiche nell’app Google per Pixel hanno ricevuto feedback favorevoli dal pubblico.
- Sissie Hsiao (Leader Team Bard)
- Ex-dipendenti coinvolti nel progetto
- Dipendenti che hanno testato Gemini
- Esempio menzionato: gruppo musicale Three 6 Mafia
- Utenti fornitori di feedback sulle funzioni AI nel meteo
Lascia un commento