Con l’introduzione di Android XR, Google ha segnato un significativo passo avanti nel settore dei sistemi operativi destinati alla realtà virtuale e mista. Presentato a dicembre dello scorso anno, il sistema sarà lanciato commercialmente nel 2025 in collaborazione con Samsung e il sottobrand DeepMind di Google, che svilupperà degli occhiali smart. Sebbene siano poche le informazioni rivelate finora, sono già emersi dettagli cruciali sulle funzionalità disponibili per gli sviluppatori.
Accesso delle app Android XR alle videocamere degli headset
Un noto sviluppatore di Android, conosciuto come Skarred Ghost, ha recentemente interrogato Google riguardo la possibilità di accesso alle videocamere degli headset Android XR. Un portavoce dell’azienda ha chiarito che gli sviluppatori potranno utilizzare i frame delle videocamere, a condizione di ottenere il consenso dell’utente, proprio come avviene per le applicazioni Android tradizionali.
Le app di Android XR potranno richiedere accesso ai sistemi della videocamera frontale e a quella posteriore, sviluppando così un ecosistema simile a quello dei telefoni Android. In contrasto, dispositivi come Meta Quest 3 e Apple Vision Pro non permettono attualmente tale accesso agli sviluppatori di app di terze parti.
Accesso al feed dell’ambiente domestico tramite Android XR
Google offrirà agli sviluppatori la possibilità di utilizzare il feed delle videocamere per analizzare e comprendere l’ambiente domestico. Dispositivi come il Project Moohan di Samsung potranno sfruttare queste informazioni per migliorare l’esperienza di giochi e applicazioni in realtà mista. Grazie a questa funzione, verrà facilitato un utilizzo avanzato del contesto ambientale.
In base alle informazioni fornite dal sito degli sviluppatori di Android, gli sviluppatori potranno chiedere accesso alla “comprensione della scena”. Le diverse applicazioni potrebbero includere “stima della luce” e l’analisi di oggetti tracciabili nel proprio ambiente.
Funzionalità avanzate di tracciamento per Android XR
È previsto che gli sviluppatori possano richiedere tracciamento avanzato tramite la videocamera posteriore, per la registrazione dei “movimenti delle giunture delle mani e velocità angolare e lineare”. Tale possibilità consentirà la creazione di una “rappresentazione mesh delle mani dell’utente”, arricchendo l’immersione e la giocabilità delle esperienze in realtà virtuale.
In aggiunta, i dispositivi basati su Android XR offriranno un tracciamento di base delle mani, garantendo funzioni come “pizzicare, toccare, mirare e impugnare”. Google sarà inoltre pronta a rivelare ulteriori dettagli sulla nuova piattaforma XR nelle settimane a venire.
Lascia un commento