Hoy, Apple finalmente reveló el Vision Pro, su auricular AR/VR de $ 3500 lanzado en 2024. Aquí hay un resumen de sus especificaciones y características completas.
Vision Pro es un auricular de gama ultra alta con la resolución más alta y la mayoría de los sensores jamás vistos en un producto AR/VR. Presenta nuevas funciones nunca antes lanzadas y su visionOS replantea la línea entre 2D, AR y VR.
Diseño ligero con batería adjunta
El Vision Pro tiene un marco de aleación de aluminio liviano personalizado que soporta una placa frontal de vidrio laminado curvado en «forma 3D» para lograr un diseño delgado.

Lo que también mantiene ligero al Vision Pro es la separación de la batería del auricular. Algunos otros auriculares, como Meta Quest Pro y Pico 4, tienen la batería en la parte posterior de la banda, pero el diseño de Apple la quita completamente de la cabeza con una batería externa conectada a un conector magnético a la izquierda de la banda para la cabeza.
Apple afirma que la batería externa duró 2 horas en las siguientes condiciones de prueba:
Reproducción de video, navegación por Internet, captura de video espacial y FaceTime. Reproducción de video probada en conjunto con un entorno, usando contenido de película 2D comprado en la aplicación Apple TV. Navegación por Internet probada con 20 sitios web populares. FaceTime probado entre dos unidades Apple Vision Pro con Personas habilitadas. Probado con Wi-Fi asociado a una red.
Alternativamente, Vision Pro se puede usar perpetuamente sin batería conectándolo a una fuente de alimentación. Apple aún no ha entrado en detalles sobre qué fuentes son compatibles o si se incluye el adaptador para esto.
Una plétora de cámaras y sensores.
Vision Pro tiene un total de doce cámaras, cuatro sensores de profundidad, un sensor LiDAR y seis micrófonos.
Bucle AR
Seis de las doce cámaras están bajo el cristal frontal.
Dos de estos seis capturan color de alta resolución para proporcionar transferencia de auriculares del mundo real, transmitiendo «más de mil millones de píxeles de color por segundo».
Las otras cuatro cámaras frontales realizan el seguimiento de la ubicación de los auriculares y otras tareas generales de visión por computadora.
Seguimiento manual
Uno de los propósitos de los cuatro sensores de profundidad es el seguimiento manual. Apple describe la calidad del seguimiento manual como «tan precisa que libera completamente las manos de la necesidad de controladores de hardware torpes».
El Vision Pro no tiene ningún tipo de controlador rastreado, aunque admite juegos 2D en una pantalla virtual con un gamepad.
Entorno de malla
El sensor LiDAR se utiliza para realizar un «mapeo 3D en tiempo real» del entorno junto con las otras cámaras frontales.
Apple dice que Vision Pro tiene una «comprensión detallada» de pisos, paredes, superficies y muebles, que las aplicaciones pueden aprovechar. Un ejemplo que dio Apple fue de objetos virtuales que proyectan sombras en mesas reales, pero esto solo rasca la superficie de lo que debería ser posible.
Seguimiento facial y ocular para FaceTime y más
Dos cámaras orientadas hacia abajo rastrean su rostro, mientras que cuatro cámaras IR internas al lado de ellas rastrean sus ojos, con la ayuda de un anillo de iluminadores LED alrededor de las lentes.
El seguimiento ocular de Vision Pro tiene tres propósitos: autenticación, representación foveal y guía de su avatar FaceTime.
Apple está llamando a su nueva autenticación de escaneo de iris OpticID, siguiendo el esquema de nombres de TouchID y FaceID de otros dispositivos. OpticID es la forma de desbloquear Vision Pro, y también funciona con las compras de Apple Pay y el autocompletado de contraseñas. Al igual que con TouchID y FaceID, los datos biométricos que alimentan OpticID son procesados en el dispositivo por un procesador Secure Enclave.
El renderizado foveado es una técnica en la que solo la pequeña región de la pantalla que sus ojos están mirando actualmente se renderiza a resolución completa, liberando así el rendimiento ya que el resto tiene una resolución más baja. Los recursos de GPU liberados se pueden usar para un mejor rendimiento, para aumentar la resolución de representación o para aumentar la configuración de gráficos. Aprovecha el hecho de que nuestros ojos solo ven en alta resolución en el centro de la fóvea.
Finalmente, el seguimiento ocular se combina con cámaras que miran hacia abajo para rastrear sus expresiones faciales en tiempo real para conducir su FaceTime Persona, la versión de Apple de avatares fotorrealistas. Meta ha estado mostrando investigaciones en este sentido durante más de cuatro años, pero parece que Apple será el primero en enviar, aunque no con la alta calidad de la investigación de Meta.
Chip R1 para latencia ultrabaja
Para combinar la entrada de todas estas cámaras, sensores y micrófonos, Apple desarrolló un chip personalizado que llama R1.

Apple dice que el R1 «prácticamente elimina el retraso, entregando nuevas imágenes a las pantallas en 12 milisegundos».
A modo de comparación, el fundador de la empresa francesa de auriculares Lynx afirmaciones La latencia de transferencia de Meta Quest Pro es de 35 a 60 milisegundos. Sin embargo, no está claro si se trata de una comparación similar.
Corona digital AR-VR
Vision Pro tiene solo dos controles físicos, ambos en la parte superior. Un botón para capturar «video espacial» y «foto espacial» en cualquier momento y una corona digital.
Al presionar Digital Crown, se muestra la vista de inicio del sistema. Pero voltearlo controla tu nivel de inmersión, desde AR completo hasta VR completo. Si va a la mitad, por ejemplo, verá la realidad virtual frente a usted y la realidad aumentada detrás de usted.
En los auriculares existentes como Meta Quest y Pico 4, la transferencia es una opción de alternar, lo que significa que debe elegir entre inmersión total o sin inmersión. En cambio, Apple quiere permitirle elegir exactamente cuánto interactuar con su entorno real.
Vista y conciencia de la persona.
Una característica completamente única de Vision Pro es una pantalla externa que muestra sus ojos a otras personas en la habitación e indica qué tan consciente está de ellos. Apple llama a esta tecnología EyeSight.
Cuando estás en una aplicación AR, EyeSight muestra un patrón de color frente a tus ojos, y cuando estás en una aplicación VR, solo muestra el patrón con tus ojos invisibles.
Cuando alguien se le acerque, Vision Pro mostrará un recorte de la persona y EyeSight le mostrará sus ojos.
Apple ha descrito asegurarse de que «nunca esté aislado de las personas que lo rodean» como uno de sus «objetivos principales de diseño» para Vision Pro, y la compañía ve esto como un claro diferenciador de los auriculares completamente opacos como Meta Quests.
Pantalla Micro OLED con 23 millones de píxeles totales
Vision Pro cuenta con dos paneles micro-OLED con una densidad de píxeles sin precedentes. Apple dice que cada uno es «del tamaño de un sello postal», pero juntos tienen 23 millones de píxeles, menos de lo que se rumoreaba anteriormente.
Apple no ha revelado la resolución exacta, pero 23 millones de píxeles en total sugerirían una resolución por ojo de aproximadamente 3400×3400 para una relación de aspecto cuadrada, o aproximadamente 3200×3600 para la relación de aspecto de 9:10 que se usa normalmente en los auriculares. Sin embargo, no conocemos la relación de aspecto exacta en Vision Pro.
Apple confirmó que las pantallas de Vision Pro admiten una amplia gama de colores y un alto rango dinámico, pero no reveló especificaciones detalladas como el brillo máximo.
Chip M2 para un rendimiento «inigualable».
Vision Pro funciona con el mismo chip Apple Silicon M2 que se usa en las Mac recientes.
Apple dice que esto ofrece un «rendimiento independiente inigualable» y permite que Vision Pro «mantenga una temperatura agradable y funcione prácticamente en silencio».

En comparación con las supuestas especificaciones del conjunto de chips Qualcomm Snapdragon de próxima generación que utilizará Meta Quest 3, se espera que el M2 de Apple ofrezca un rendimiento de la CPU un 25 % más rápido con un solo subproceso, un 75 % más rápido con subprocesos múltiples y aproximadamente un 15 % más rápido con más potencia de GPU. .
Sin embargo, sin conocer las velocidades de reloj exactas de los procesadores en cada auricular, esta es solo una comparación muy aproximada.
visionOS con control manual y ocular
visionOS es el «sistema operativo espacial» personalizado de Apple para Vision Pro y, presumiblemente, también para los futuros auriculares de la línea Vision.
Apple describe visionOS como «familiar, pero revolucionario». Te presenta aplicaciones 2D móviles que puedes desplazar con solo un toque de tus dedos. Seleccione los elementos del menú con los ojos con solo mirarlos y use los dedos para hacer clic.
Muchas de las aplicaciones y servicios patentados de Apple están disponibles en visionOS, incluidos Notes, Messages, Safari, Keynote, Photos, FaceTime y Apple Music.
En lugar de existir solo dentro de su marco 2D, muchas de las aplicaciones de Apple «se vuelven espaciales», ocupando espacio a tu alrededor. En las llamadas grupales de FaceTime, por ejemplo, la vista de la cámara web de cada persona se convierte en su propio rectángulo flotante, con audio espacial proveniente de cada persona. Apple también ha dado el ejemplo de poder extraer modelos 3D de mensajes en el espacio real.
Vision Pro también le permite ampliar de forma inalámbrica la pantalla de su Mac en una enorme pantalla virtual con solo mirarla.
Uno de los objetivos principales de visionOS es ver películas y programas de TV en una pantalla virtual enorme, incluida la compatibilidad para ver películas en 3D de la biblioteca de Apple con profundidad.
Audio espacial con trazado de rayos personalizado
El Vision Pro tiene «módulos de audio» en un lado, cada uno con dos controladores. Apple lo describe como «el sistema de audio espacial más avanzado de la historia».
Si tiene un iPhone con un sensor FaceID TrueDepth, puede escanear su rostro para habilitar el audio espacial personalizado, donde el sistema ajustará el sonido a la geometría de su cabeza y oído para obtener el audio espacial más preciso posible.
Vision Pro también utiliza una técnica llamada Audio Ray Tracing, en la que escanea las características y los materiales de su espacio para «hacer coincidir con precisión el sonido de su habitación». Esta técnica también se utiliza en los altavoces HomePod de Apple.
Apple dice que los compradores de Vision Pro estarán «totalmente convencidos de que los sonidos provienen de su entorno».
Precios y disponibilidad
El Apple Vision Pro saldrá a la venta en los EE. UU. a principios de 2024 a partir de $ 3500. Estará disponible en línea y en las tiendas Apple.
Apple dice que más países obtendrán Vision Pro «para fines del próximo año», pero no reveló exactamente qué países.