Nella giornata di martedì Apple ha depositato un brevetto che descrive un metodo di localizzazione dei dispositivi, utilizzando computer vision e sensori di misura inerziale, una delle prime invenzioni dopo la recente acquisizione di quest’anno della startup di realtà aumentata, Flyby Media.
Il brevetto, pubblicato dal Patent and Trademark Office statunitense con il nome di “Visual-based inertial navigation”, consentirebbe ad un utente di interagire con lo spazio tridimensionale utilizzando i dati immagine della fotocamera e una serie di sensori implementati in un dispositivo.
In particolare, il sistema sarebbe in grado di unire le immagini raccolte con la o le fotocamere con i corrispondenti dati raccolti dal giroscopio e accelerometro, tra gli altri sensori, per ottenere informazioni dettagliate sulla posizione di un device in un determinato momento. Immagini successive e misurazioni vengono confrontate e contrapposte per localizzare posizione e orientamento dei dispositivi in tempo reale.
Apple: nuovo brevetto verso la realtà aumentata
Questi sistemi di navigazione inerziale, come sottolineato nel brevetto, non richiedono segnali GPS o connettività cellulare per ottenere informazioni dettagliate. Tuttavia, il monitoraggio delle variabili spesso richiede che le immagini e le misurazioni dei dati debbano essere conservate per successive elaborazioni, un metodo che quindi richiede tanta memoria per funzionare, attualmente inadatto con hardware mobili.
Per superare tali ostacoli, l’invenzione della compagnia di Cupertino implementa un modulo di “filtro scorrevole a finestra inversa” (SWF) per ridurre al minimo il carico computazionale. La prima tecnologia elabora le informazioni dalle finestre sovrapposte di immagini man mano che vengono catturate da una fotocamera del dispositivo, quindi traccia le caratteristiche delle immagini con i corrispondenti sensori per determinare correttamente la posizione del dispositivo.
Successivamente, l’SWF stima l’orientamento degli oggetti in prossimità del dispositivo. Tutti i dati per la posizione del device e la prossimità degli oggetti vengono calcolati per ogni immagine in una serie, o in una finestra di immagini. Infine, l’SWF riassume ogni finestra di immagini, convertendo le stime in informazioni sul dispositivo in ogni singolo istante nel tempo. Le informazioni raccolte su una finestra possono poi essere applicate a fasi di lavorazioni successive.
LEGGI ANCHE: iPhone 7, il nuovo dispositivo di Apple ha finalmente una data di uscita
Possibili applicazioni
In una situazione reale, moduli SWF potrebbero essere utilizzati per soluzioni di navigazione a realtà aumentata. Per esempio, le stime sulla posizione e orientamento raccolte da SWF potrebbero essere utilizzati per etichettare i punti su una mappa digitale o agire come aiuto visivo nella localizzazione di oggetti in un negozio al dettaglio. Dal momento che il modulo è in grado di mantenere l’ultima posizione conosciuta di un oggetto, può aiutare gli utenti a trovare oggetti importanti, come le chiavi di casa.
Un’altra potenziale applicazione utilizza i sensori di profondità per creare una mappa 3D di un determinato ambiente, mentre un altro sfrutta le onde radio di un dispositivo per marcare la potenza del segnale mentre un utente cammina attraverso un edificio.
Non è chiaro se la Mela ha in programma di integrare la nuova tecnologia SWF in un prodotto finale, ma la società starebbe già lavorando su soluzioni a realtà aumentata e virtuale. All’inizio di quest’anno i rapporti hanno riportato l’acquisizione di Flyby Media, una startup focalizzata su soluzioni a realtà aumenta legata al progetto di Google Tango. Dagli inventori indicati nel brevetto di oggi, due ex dipendenti del colosso di Mountain View, Naroditsky e Grygorenko, ora lavorano per Apple.