La crescente integrazione dell’intelligenza artificiale nelle nostre vite ha sollevato interrogativi sulla sicurezza online, in particolare riguardo ai giovani utenti. Di fronte a queste preoccupazioni, importanti aziende tecnologiche come Google, OpenAI, Discord e Roblox hanno collaborato per dare vita a un nuovo gruppo dedicato alla sicurezza dei bambini. Queste organizzazioni hanno presentato l’iniziativa Robust Open Online Safety Tools (ROOST) durante il AI Action Summit svoltosi a Parigi.
ROOST: un’iniziativa per la sicurezza online dei bambini
ROOST rappresenta una nuova organizzazione no-profit con l’obiettivo di aumentare la sicurezza infantile su internet. Le aziende aderenti a questo gruppo avranno accesso a strumenti AI open-source, utili per identificare, esaminare e segnalare contenuti di abuso sessuale minorile (CSAM).
Secondo un comunicato congiunto, l’obiettivo è unire le competenze, le risorse e gli investimenti per realizzare un’infrastruttura di sicurezza più accessibile e trasparente. Sono supportati anche da numerose fondazioni filantropiche, tra cui la Knight Foundation, la Patrick J. McGovern Foundation e l’AI Collaborative.
- OpenAI
- Discord
- Roblox
- Bluesky
- Microsoft
- Mozilla
- Github
Partner fondatori e la loro storia di regolamentazione
Prendendo come esempio Roblox, emerge una scarsa regolamentazione della propria piattaforma. L’anno scorso, l’azienda è stata criticata nel rapporto di Hindenburg, evidenziando le sue problematiche nel garantire la sicurezza.
Nonostante Google stia attuando misure efficaci per la sicurezza dei bambini online, è ancora alle prese con la diffusione di contenuti espliciti generati da AI. Pertanto, l’aspettativa è che il gruppo per la sicurezza infantile riesca a vantare successo nel suo operato futuro.
Lascia un commento