Arrivo di AGI potrebbe generare rischi esistenziali secondo Google DeepMind

Google rappresenta uno dei principali attori nel settore dell’intelligenza artificiale. La divisione DeepMind dell’azienda sviluppa numerose tecnologie che vengono integrate nei prodotti e servizi di Google. Recentemente, DeepMind ha pubblicato un documento sulla sicurezza che mette in guardia riguardo all’era dell’AGI (Intelligenza Artificiale Generale), suscitando opinioni contrastanti tra esperti del settore.

il documento di sicurezza di google deepmind sull’agenda agi

Secondo Google DeepMind, le vere AGI potrebbero emergere già entro il 2030. Il documento afferma: “[Ci aspettiamo] lo sviluppo di un’AGI Eccezionale prima della fine dell’attuale decennio.” Quest’ultima è definita come un sistema con capacità pari almeno al 99° percentile degli adulti esperti in una vasta gamma di compiti non fisici, inclusi quelli metacognitivi come l’apprendimento di nuove abilità.

La società non considera questa potenziale realtà completamente positiva. Il documento avverte che tali sistemi potrebbero provocare “danni gravi” e comportare “rischi esistenziali” capaci di “distruggere permanentemente l’umanità.”

l’opinione di deepmind sulla superintelligenza artificiale

I ricercatori di DeepMind nutrono anche dubbi riguardo alla fattibilità della cosiddetta superintelligenza artificiale, concetto menzionato anche da OpenAI. Nel documento si sottolinea che attualmente non ci sono innovazioni architettoniche significative in tale direzione. Viene riconosciuta la possibilità di un’“improvement ricorsivo dell’IA,” ovvero IA in grado di creare altre IA più avanzate attraverso la ricerca, sebbene questo sia considerato molto pericoloso.

La natura trasformativa dell’AGI può portare a benefici incredibili così come a danni severi;” si legge nel documento. “Pertanto, per costruire l’AGI in modo responsabile, è fondamentale che gli sviluppatori di AI frontier pianifichino proattivamente per mitigare i danni severi.

dissenting opinions from industry experts

Diverse figure del settore contestano le conclusioni del rapporto DeepMind. Heidy Khlaaf, scienziata principale presso l’AI Now Institute, sostiene che sia ancora prematuro aspettarsi una valutazione scientifica rigorosa del concetto AGI. Matthew Guzdial, professore assistente presso l’Università dell’Alberta, ritiene irrealistico l’improvement ricorsivo menzionato da DeepMind: “Non abbiamo mai visto prove della sua efficacia.

Sandra Wachter—ricercatrice specializzata in tecnologia e regolamentazione a Oxford—avverte che la vera preoccupazione riguarda l’addestramento delle future IA con output “sbagliati.” Questo fa riferimento all’utilizzo crescente dei dati sintetici nel settore. I dati sintetici derivano dall’intelligenza artificiale anziché dal mondo reale.

  • Heidy Khlaaf, Chief AI Scientist – AI Now Institute
  • Matthew Guzdial, Assistant Professor – University of Alberta
  • Sandra Wachter, Researcher – Oxford University

Continue reading

NEXT

Difendi il tuo regno magico con il gioco android gratuito di Epic

novità nel mondo dei videogiochi: doodle kingdom disponibile gratuitamente Il panorama videoludico si arricchisce con l’arrivo di un nuovo titolo offerto senza costi sullo store di Epic Games. Gli utenti possono ora scaricare Doodle Kingdom: Medieval senza alcun addebito fino […]
PREVIOUS

Price tracker online: il tuo alleato contro gli aumenti previsti

Con l’introduzione di nuove tariffe più elevate sui beni in arrivo negli Stati Uniti, si prevede un significativo aumento dei prezzi. L’utilizzo di strumenti online per il monitoraggio dei prezzi può rivelarsi utile per comprendere quali articoli abbiano subito variazioni […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza