Las gafas inteligentes de Apple, aún en fase de desarrollo, podrían convertirse en el próximo gran paso dentro del ecosistema de la marca, hasta el punto de sustituir al iPhone como dispositivo principal. Según diversas fuentes, el lanzamiento inicial está previsto para 2026, aunque su diseño y funcionalidades apuntan mucho más allá de una simple interfaz visual. Hablamos de un producto que busca integrar inteligencia artificial avanzada, conectividad constante y una experiencia de usuario completamente manos libres.

El plan de Apple va más allá de lo que ofrecen actualmente dispositivos como el Apple Vision Pro. En lugar de unas gafas voluminosas dedicadas a la realidad mixta, el objetivo es un wearable ligero, discreto y con la capacidad de interactuar de forma directa con el mundo físico, potenciando la realidad asistida más que la aumentada. Estas Apple Glasses estarían equipadas con cámaras, micrófonos, sensores y probablemente una batería de bajo consumo integrada en las patillas.

Aunque aún hay más incógnitas que certezas, lo que está claro es que Apple no quiere quedarse atrás en una carrera que ya han comenzado Meta, Google y otras tecnológicas. En este artículo desgranamos lo que se sabe, lo que se rumorea y lo que podría estar por venir.

Apple Glasses: lo que se sabe hasta ahora

Según fuentes como Cult of Mac y MacRumors, las gafas inteligentes de Apple no buscarán competir directamente con las actuales soluciones de realidad mixta como el Vision Pro. En lugar de eso, el foco estará en una experiencia de uso cotidiana: hablar con Siri, recibir notificaciones, responder mensajes o hacer llamadas, todo desde un dispositivo que no requiere sacar el móvil del bolsillo.

Los primeros prototipos incluirían:

  • Micrófonos y cámaras miniaturizadas para la captura de audio e imagen sin necesidad de interacción física.

  • Conectividad Bluetooth, Wi-Fi e incluso 5G, en una futura iteración, para mantenerse siempre sincronizadas.

  • Control por voz mediante Siri, potenciado con los nuevos avances en Apple Intelligence, el sistema de IA anunciado en 2024.

  • Diseño liviano, en torno a los 150 gramos según rumores, con materiales similares a los utilizados en las monturas de las Ray-Ban Meta.

  • Batería integrada en las patillas, posiblemente con carga inalámbrica por contacto magnético.

Estas características sugieren una interfaz transparente, similar a un HUD (Heads-Up Display), que no impone una realidad aumentada en tiempo completo, sino que se activa en función de la necesidad del usuario, como cuando se le solicita una ruta en Apple Maps o se le recuerda una cita.

Rumores recientes: sensores de retina y compatibilidad con Apple Neural Engine

Uno de los rumores más recientes, recogido por BGR y filtrado por cuentas vinculadas a la cadena de suministro asiática de Apple, es que las futuras Apple Glasses podrían incluir detección ocular avanzada, permitiendo desbloqueo por retina y control de la interfaz mediante movimiento ocular.

Además, se especula con que las gafas integrarían una versión personalizada del Apple Neural Engine, actualmente utilizado en chips como el M3, para procesar IA localmente sin depender de servidores externos. Esto permitiría funciones como traducción en tiempo real, detección contextual de objetos o transcripción de conversaciones.

En cuanto al sistema operativo, no se descarta una nueva versión ligera de visionOS, que heredaría elementos del sistema ya presente en Vision Pro, pero optimizado para un uso más pasivo y menos gráfico.

Apple y la visión del reemplazo progresivo del iPhone

El propio Tim Cook ha insinuado en varias ocasiones que el futuro del iPhone no será físico, sino visual y asistido. Aunque el iPhone seguirá siendo una piedra angular del ecosistema Apple durante años, las Apple Glasses podrían tomar el relevo en ciertas funciones claves.

Esto encajaría con la estrategia de Apple de desarrollar dispositivos cada vez más personales, que reduzcan el tiempo de pantalla activa pero mantengan al usuario conectado. Se habla incluso de la posibilidad de que en futuras generaciones las gafas puedan realizar tareas de control domótico, apertura de puertas mediante geolocalización o pagos por gestos o confirmación ocular.

Una comparación interesante es el salto que supuso el iPod al iPhone. En su momento, el iPod era el rey del mercado musical, pero Apple no dudó en dejarlo atrás cuando apareció una tecnología más versátil. Las Apple Glasses podrían repetir ese patrón.

El contexto del mercado: Meta, Google y Amazon también se mueven

Apple no está sola en esta apuesta. Meta lleva tiempo invirtiendo en gafas inteligentes en colaboración con Ray-Ban, cuyo modelo más reciente (Ray-Ban Meta Smart Glasses Gen 2) ya incluye cámaras, micrófonos y conexión a IA generativa. Aunque su enfoque es más lúdico, no deja de ser un competidor directo.

Google, tras el fracaso inicial de Google Glass, ha retomado el proyecto con un perfil más bajo, enfocado en productividad y asistentes visuales para el trabajo. También ha habido movimientos por parte de Amazon, centrados en Alexa y realidad aumentada mediante dispositivos Echo.

Apple, sin embargo, sigue jugando su partida de forma silenciosa pero sistemática, construyendo primero la infraestructura: el lanzamiento de visionOS, la aparición de Apple Intelligence y el rediseño de Siri no son casualidad. Todo parece apuntar a una convergencia de estas tecnologías en un nuevo tipo de dispositivo: visual, persistente y contextual.

Tecnología aplicada: sensores, IA y privacidad

Uno de los retos clave para Apple será mantener su imagen de empresa centrada en la privacidad del usuario. Las Apple Glasses incluirán sensores que podrían captar imágenes o datos ambientales, y para evitar polémicas como las que afectaron a Google Glass, Apple planea incluir indicadores luminosos cada vez que las cámaras estén activas.

Desde el punto de vista técnico, las gafas podrían incluir:

  • IMU de seis ejes (giroscopio + acelerómetro) para detección precisa de movimientos de cabeza.

  • Sensores ambientales para adaptar el brillo o detectar presencia.

  • Chip UWB (ultra-wideband) para posicionamiento milimétrico en interiores y sincronización instantánea con otros dispositivos Apple.

  • Capacidad de aprendizaje en el borde (edge computing), reduciendo la latencia en interacciones gracias al uso del Apple Neural Engine.

Todo esto se traduciría en una experiencia fluida y no intrusiva, donde el usuario apenas tendría que pensar en cómo interactuar. La interfaz se adaptaría al contexto, ya sea una reunión, una llamada o una simple caminata por la calle.

297
Suscribirse
Notificación
1 Comment
Inline Feedbacks
Ver todos los comentarios
1
0
¡Aquí puedes dejar tus comentarios!x