DeepMind, la divisione di Google dedicata all’intelligenza artificiale, ha fatto registrare notevoli progressi nel campo delle tecnologie avanzate. Diverse innovazioni sono già integrate nei prodotti dell’azienda, mentre alcuni progetti sono ancora in fase di sviluppo e attendono una diffusione più ampia. Tra questi, Gemini si profila come uno dei servizi destinati a ricevere significativi miglioramenti a breve termine. Recentemente, Demis Hassabis, CEO di Google DeepMind, ha condiviso ulteriori dettagli sulla direzione che l’azienda intende seguire nel settore dell’IA durante un’intervista.
gemini ai: miglioramenti significativi nella memoria previsti
L’intervista è iniziata con un saluto da parte di Project Astra. “Ciao, Scott. È bello rivederti,” ha affermato l’IA. Per chi non lo sapesse, Project Astra rappresenta l’esperienza conversazionale multimodale avanzata di Google. Come suggerisce il saluto, l’intelligenza artificiale sembrava “ricordare” l’intervistatore da un incontro precedente.
Le funzionalità di Project Astra stanno arrivando in Gemini Live. Di recente, il chatbot ha ricevuto le attese capacità multimodali che gli consentono di “vedere” ciò che lo circonda o cosa appare sullo schermo dell’utente. Ciò consente a Gemini di rispondere a domande su ciò che sta “osservando” in tempo reale. Attualmente non è in grado di ricordare conversazioni passate. Come è riuscito quindi a ricordare l’intervistatore?
L’intervista ha rivelato che i programmatori di Gemini stanno sviluppando una versione con una memoria estesa capace di ricordare dettagli delle conversazioni precedenti per personalizzare meglio le domande successive. Hassabis ha anche menzionato una “memoria di 10 minuti” per le interazioni in corso. Queste funzionalità potrebbero essere implementate in Gemini Live nel prossimo futuro.
gemini diventa più “agente”
Hassabis ha fornito anche informazioni sul futuro del assistente AI Gemini, dichiarando che DeepMind sta “addestrando il suo modello AI chiamato Gemini non solo per rivelare il mondo ma per agire al suo interno, come prenotare biglietti e fare acquisti online.” Si prevede quindi che Gemini acquisisca capacità “agenti” in futuro.
Sebbene siano previste queste nuove funzionalità agenti per Gemini, Hassabis sottolinea che gli AGI (intelligenze artificiali generali) sono stimati ad arrivare tra 5 e 10 anni. Entro il 2030 si prevede un sistema capace di comprendere profondamente tutto ciò che lo circonda e integrarsi nella vita quotidiana degli utenti.
sistema ai “autocosciente” in fase di sviluppo?
“Penso che nessuno dei sistemi odierni mi faccia sentire autocosciente o consapevole in alcun modo…” Ha aggiunto inoltre che un sistema AI autocosciente potrebbe essere raggiunto come conseguenza naturale dei progressi nell’intelligenza artificiale e non come obiettivo primario da perseguire.
visione del ceo deepmind sull’ai autocosciente
Infine, il CEO ha elaborato ulteriormente la sua visione riguardo a un sistema AI autocosciente:
“Penso ci siano due motivi per cui ci consideriamo consci… Ma i macchinari funzionano con silicio; quindi anche se mostrano comportamenti simili agli esseri umani…non significa necessariamente che abbiano la stessa coscienza.”
Lascia un commento