Las Apple Glasses no serían un dispositivo independiente y tendrían toda su operativa en el teléfono. De forma que las gafas actuarían como una segunda pantalla del iPhone.
Entre las funciones más llamativas tenemos: la oclusión de personas que permite detectar gente delante de objetos de realidad aumentada y simular que están delante para que no se dibujen allí donde está la persona. También otras opciones como el uso simultáneo de las cámaras frontales y traseras o la captura de movimiento de personas.
Cuando llevamos las gafas, las apps de AR se ejecutarían en ellas si tenemos el dispositivo bloqueado y se lo pedimos a Siri (o las arrancamos en su escritorio o lanzador de apps en AR). Aunque todo el proceso se haría en el teléfono. No obstante, todas las apps podrían ejecutarse también en el teléfono y podríamos pasar su visualización a las lentes o a la pantalla del teléfono, como haríamos con la función Sidecar del Mac que envía el segundo monitor a un iPad directamente. Si no hay ninguna app ejecutada, las gafas estarían en modo «Held» (como en pausa) por lo que no consumirían nada. Es como si llevamos el reloj en la mano con la pantalla apagada porque no la miramos.
Las experiencias con estas gafas serían mucho más reales y permitirían, incluso, que personas que vemos interactúen con objetos dentro de esa realidad virtual. Además, tal como puede hacerse ahora, podríamos tener experiencias compartidas y que varias lentes vean la misma experiencia e interactúen con ella.
Apple contempla la posibilidad que los propios desarrolladores de apps no dispongan de un dispositivo físico para probar sus desarrollos, por lo que ha creado un modo «simulado» a través de un dispositivo o incluso con el Mac en modo simulador de iOS. Un modo que es el que ahora, según hemos podido ver por el tuit bajo estas líneas, han conseguido ejecutar en modo prueba.
Si no tenemos las gafas, pero podemos usar el móvil, entonces entrará en un modo similar a una carcasa Google Daydream, donde pondríamos el móvil frente a los ojos y las cámaras del mismo harían el resto. De esta forma, los desarrolladores podríamos probar y trabajar en las apps antes que las lentes se lanzaran, algo que para Apple es clave si quiere tener apps para estas lentes el día de su lanzamiento.
Debemos recordar que las lentes de realidad aumentada no abarcan todo el campo de visión del ojo, solo una zona concreta que es donde vemos proyectada esa realidad.
Octubre de 2019 en una nueva keynote podría ser el momento en que se presenten los prototipos y se lanzen públicamente estas gafas que hoy hemos comentado. Ese lanzamiento podría ser en marzo del próximo año o incluso en septiembre con la siguiente generación de iPhone iPhone 12
Hay muchas incógnitas alrededor de este nuevo dispositivo, sin duda, pero podemos pensar que al igual que el Apple Watch necesitó años para madurar como dispositivo y llegar a la mayoría de personas