Alcuni sviluppatori di armeggi hanno effettivamente utilizzato i dati del viso raccolti dal sistema di telecamere TrueDepth di iPhone X per creare modelli 3D del loro viso. Uno è stato persino in grado di stampare in 3D il suo volto, anche se con risultati discutibili.
In un breve video, l'artista degli effetti visivi Elisha Hung è stata in grado di utilizzare i dati raccolti dalla fotocamera TrueDepth per creare una testa fluttuante 3D, in grado di imitare i suoi movimenti. Ha utilizzato la fotocamera dell'iPhone X, quindi ha utilizzato ARKit e Xcode per recuperare quei dati e successivamente trasformarli in rendering 3D completi.
Anche se in realtà sembra piuttosto bello, ci vuole lo sforzo di un artista di effetti visivi per raggiungere quel risultato. Le immagini reali raccolte dalla fotocamera dell'iPhone sono molto meno precise.
Non raccoglie abbastanza punti per creare un modello così realistico, quindi ci vuole molto effetto per appianare i dati in qualcosa che assomiglia di più a una faccia. Brad Dwyer, fondatore della società di giochi Hatchlings, ha mostrato come appare un fotogramma reale come raccolto dalla fotocamera TrueDepth.
Ecco un'altra scansione. Pulito un po '. Probabilmente una migliore rappresentazione di ciò che "vede"
Dovrei notare, questo è un fotogramma della fotocamera #TrueDepth. Probabilmente potresti campionare più frame per costruire una mappa di profondità migliore. pic.twitter.com/yweJ7hBJ1U
- Brad Dwyer (@braddwyer) 15 novembre 2017
In questa forma, è molto più bloccante.
Tuttavia, hanno dimostrato quali prodezze impressionanti si possono ottenere utilizzando la tecnologia più recente integrata nei telefoni Apple. Poiché gli sviluppatori sono in grado di sfruttare queste API, sarà interessante vedere cosa faranno gli sviluppatori in futuro.