Bloomberg ha riferito questa mattina che Apple sta lavorando su un sensore 3D posteriore diverso dalla fotocamera TrueDepth che migliorerebbe le funzionalità di realtà aumentata e la mappatura della profondità.
La fotocamera TrueDepth crea una mesh tridimensionale del volto di un utente proiettando su di essa un modello di 30.000 punti a infrarossi. Sfruttando un approccio a luce strutturata, il sistema misura quindi la distorsione di ciascun punto per creare un'immagine 3D per l'autenticazione.
Si dice che il previsto sensore posteriore per iPhone 2019 sfrutti una tecnica nota come il tempo di volo che calcola il tempo impiegato da un raggio di luce infrarossa per rimbalzare sugli oggetti circostanti al fine di creare un'immagine tridimensionale di l'ambiente.
"Si prevede che la società manterrà il sistema TrueDepth, quindi i futuri iPhone avranno capacità di rilevamento 3D frontali e posteriori", ha aggiunto il rapporto.
Un sensore posteriore consentirebbe app di realtà aumentata più sofisticate, un'accurata mappatura della profondità e un tracciamento più affidabile. ARKit attualmente fonde i dati grezzi di alimentazione e movimento della telecamera dai sensori integrati per rilevare superfici piane e tracciare oggetti virtuali sovrapposti al mondo reale, ma si trova in difficoltà con piani verticali come pareti o finestre.
Ad esempio, se una tigre digitale cammina dietro una vera sedia, la sedia viene comunque visualizzata dietro l'animale, il che distrugge l'illusione. Un sensore 3D posteriore lo avrebbe risolto.
"Mentre l'approccio della luce strutturata richiede che i laser siano posizionati in modo molto preciso, la tecnologia del tempo di volo si basa invece su un sensore di immagine più avanzato", hanno scritto gli autori Alex Webb e Yuji Nakamura. "Ciò potrebbe semplificare il montaggio dei sistemi a tempo di volo ad alto volume."
Presumibilmente, Apple ha avviato discussioni con alcuni fornitori che avrebbero costruito il nuovo sensore, tra cui Infineon, Sony, STMicroelectronics e Panasonic. È interessante notare che Google ha lavorato con Infineon alla mappatura approfondita nell'ambito del suo progetto Tango presentato nel 2014.
I futuri iPhone dovrebbero avere funzionalità di rilevamento 3D sia frontali che posteriori?
Audio disattivato nei commenti!