Nei recenti sviluppi, Google ha apportato notevoli cambiamenti alle sue politiche riguardanti l’intelligenza artificiale, allontanandosi dalle precedenti promesse di responsabilità etica. Queste modifiche hanno sollevato interrogativi sul futuro delle tecnologie di AI e sul loro potenziale utilizzo in settori controversi come la sorveglianza e la guerra.
Modifiche alle politiche di Google sull’AI
Storicamente, Google aveva promesso di non sviluppare intelligenza artificiale per applicazioni dannose, in particolare armi o
tecnologie destinate a causare danni fisici. Queste garanzie sono state recentemente abbandonate, eliminando il vincolo di non contribuire a tecnologie belliche o di sorveglianza che violano le normative internazionali.
Transizione dalle politiche firmate nel 2018
Nel 2018, Google aveva rifiutato di rinnovare il contratto per il Project Maven, che analizzava i dati delle sorveglianze aeree, preoccupandosi di possibili conflitti con le sue etiche aziendali. Nel 2022, l’azienda ha partecipato al Project Nimbus, suscitando timori tra i dirigenti riguardo all’utilizzo dei servizi cloud per violazioni dei diritti umani. Questa situazione ha portato l’azienda a limitare le discussioni interne sui conflitti politici.
Implicazioni delle nuove posizioni
Questa evoluzione mette in evidenza l’interesse di Google nel settore della difesa, dove l’applicazione dell’AI offre enormi opportunità economiche. L’idea di un’armamentazione dell’intelligenza artificiale sembra crescere, suggerendo la possibilità di sviluppare software utilizzabile in ambito bellico.
Le dichiarazioni dei dirigenti
Demis Hassabis, CEO di Google DeepMind, ha recentemente dichiarato che “le democrazie dovrebbero guidare nello sviluppo dell’AI”. Questa affermazione, seppur apparentemente innocua, assume toni preoccupanti se confrontata con le affermazioni di leader come il CTO di Palantir, evidenziando la necessità di un impegno nazionale per vincere la corsa all’intelligenza artificiale.
Riflessioni finali sulle nuove direzioni tecnologiche
Il timore che l’AI possa essere utilizzata per scopi dannosi sta diventando una realtà. Nonostante le possibilità positive della tecnologia, esiste un crescente rischio di ricadere in una corsa agli armamenti che può condurre a conflitti globali senza precedenti. L’equilibrio tra avanzamento tecnologico e responsabilità etica risulta cruciale per evitare un futuro caratterizzato dalla guerra.
- Google, Inc.
- Palantir Technologies
- Demis Hassabis (Google DeepMind)
- Shyam Sankar (CTO di Palantir)
Lascia un commento