Las gafas inteligentes Ray-Ban Meta están adquiriendo poderes de inteligencia artificial a través de las cámaras incorporadas, con nuevas funciones lanzadas en una beta privada.

Parte de estas características son sus capacidades de IA multimodal, que fueron promocionadas el año pasado en demos por Meta.

La inteligencia artificial multimodal permite a los usuarios utilizar la IA para obtener información sobre el mundo que les rodea. Por supuesto, las gafas inteligentes Ray-Ban Meta actuales no son de realidad aumentada (AR), por lo que todas las interacciones con la IA son a través del asistente de voz de Meta.

Interacciones inteligentes con el entorno

Las gafas inteligentes cuentan con cámaras frontales, y estas ahora pueden utilizarse para interactuar con el mundo que te rodea. Ejemplos podrían ser pedir información sobre lugares de interés o traducir texto en un menú mientras viajas.

Avances tecnológicos en el horizonte

Hay un montón de aplicaciones útiles, y este tipo de características son una gran parte de la hoja de ruta para unas gafas inteligentes de consumo verdaderamente útiles.

En Pulse hablan sobre esa hoja de ruta como parte de su podcast con el CEO y fundador de Brilliant Labs, que está a punto de lanzar las gafas inteligentes Frame, que aprovechan la IA y la AR juntas, así que vale la pena echar un vistazo si estás interesado en cómo se está aprovechando la IA por los dispositivos portátiles.

 

201
Suscribirse
Notificación
1 Comment
Inline Feedbacks
Ver todos los comentarios
1
0
¡Aquí puedes dejar tus comentarios!x