Origine controversa di gemini e il suo legame con il razzismo

Il panorama dell’intelligenza artificiale è in continua evoluzione, e Google si sta affermando con il suo chatbot Gemini. Recentemente, un articolo approfondito ha analizzato le origini di questo sistema, rivelando dettagli significativi sullo sviluppo di Bard e Gemini.

sviluppo problematico di bard

Secondo quanto riportato da Sissie Hsiao, leader del team di Bard, Google ha imposto un termine di soli 100 giorni per la creazione di un concorrente a ChatGPT. La richiesta dell’azienda era chiara: “qualità prima della velocità, ma rapidità”. I risultati iniziali non sono stati all’altezza delle aspettative.

Un ex-dipendente ha evidenziato che i primi prototipi presentavano stereotipi razziali “comicamente errati”. Ad esempio, quando veniva chiesta la biografia di una persona con un nome indiano, il risultato era descritto come un “attore di Bollywood”, mentre per nomi cinesi si faceva riferimento a scienziati informatici.

errori e criticità nei prototipi

Le problematiche non si limitavano agli stereotipi. Un altro ex-dipendente ha raccontato che quando gli venne chiesto di scrivere una canzone rap ispirata al gruppo Three 6 Mafia su batterie gettate in mare, il chatbot elaborò risposte inquietanti legate a omicidi. Nonostante circa 80.000 persone avessero testato Bard, il processo di revisione è stato accelerato senza tenere conto dei potenziali problemi.

gemini: generazione d’immagini controversa

I test condotti sul modello uncensored del generatore d’immagini Gemini hanno sollevato preoccupazioni significative. Alcuni dipendenti hanno richiesto più tempo per affrontare le problematiche emerse durante i test. Ad esempio, l’input “rapist” tendeva a generare immagini di persone con pelle scura; inoltre, vi erano timori riguardo alla rappresentazione insensibile degli individui.

risultati inaspettati post-lancio

Dopo l’uscita del generatore d’immagini, gli utenti hanno scoperto che il sistema produceva immagini razzialmente diverse anche in contesti storici inappropriati. Per esempio, cercando un senatore statunitense del XIX secolo venivano generate immagini di persone di colore invece dei tipici uomini bianchi. In seguito a queste critiche, Google ha deciso di disabilitare la funzione per creare immagini umane.

feedback positivo su altre funzionalità

Anche se ci sono state difficoltà nello sviluppo dei chatbot e nella generazione delle immagini, alcuni aspetti come le previsioni meteorologiche nell’app Google per Pixel hanno ricevuto feedback favorevoli dal pubblico.

  • Sissie Hsiao (Leader Team Bard)
  • Ex-dipendenti coinvolti nel progetto
  • Dipendenti che hanno testato Gemini
  • Esempio menzionato: gruppo musicale Three 6 Mafia
  • Utenti fornitori di feedback sulle funzioni AI nel meteo

Continue reading

NEXT

Android 16 migliora la velocità e la semplicità di sblocco del tuo google pixel

novità di android 16 beta 3: sblocco con impronta digitale senza accensione dello schermo Con l’aggiornamento Android 16 Beta 3, Google introduce una funzionalità attesa da molti utenti dei dispositivi Pixel: la possibilità di sbloccare il telefono utilizzando l’impronta digitale […]
PREVIOUS

Ai sviluppato con chip cinesi da ant group: prestazioni simili a nvidia h800 e costi ridotti del 20%

sviluppo dell’AI da parte di ant group Ant Group ha recentemente fatto notizia per aver utilizzato semiconduttori prodotti in Cina al fine di sviluppare tecnologie di allenamento per intelligenza artificiale (AI). Questo approccio ha permesso all’azienda di ridurre i costi […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza