Tecnología

Google revela diseño de sus nuevas gafas de realidad aumentada; tendrán un asistente de inteligencia artificial

El diseño de las gafas es ligero y similar al de unas gafas convencionales, lo que facilita su uso durante el día.

11 de abril de 2025, 7:52 p. m.
Google está trabajando en una plataforma de realidad extendida, Android XR.
Google está trabajando en una plataforma de realidad extendida, Android XR. | Foto: Getty Images

Google ha presentado un prototipo de gafas inteligentes bajo la denominación Google XR, un dispositivo ligero que se conecta al smartphone y que integra el asistente de inteligencia artificial de la compañía. El responsable de Realidad Aumentada y Realidad Extendida de Google, Shahram Izadi, mostró este avance durante una de las conferencias TED que se celebran esta semana en Vancouver, Canadá.

Izadi apareció en el escenario portando las gafas, las cuales sirvieron como apoyo para su intervención. Según explicó, a través de las gafas veía una pequeña pantalla que le guiaba durante su discurso, una función que le permitió mantener la fluidez de la presentación, según informaron medios como Axios y Gadgets360.

Meta ha lanzado funciones en versión beta para sus gafas inteligentes Ray-Ban.
Google ha lanzado funciones en versión beta para sus gafas inteligentes . | Foto: Getty Images

El diseño de las Google XR integra un micrófono, altavoces y una cámara, elementos clave que permiten al usuario interactuar con su entorno a través de la realidad aumentada. Al conectarse al teléfono móvil, las gafas proporcionan acceso a las aplicaciones del dispositivo y facilitan la interacción con Gemini, el asistente de inteligencia artificial de Google. Además, las gafas incluyen una función denominada ‘Memoria’, que utiliza la cámara para reconocer objetos en el mundo real y responder a las consultas que el usuario realice sobre ellos.

En cuanto al diseño, las gafas mantienen una estética similar a la de unas gafas estándar, con una montura negra. Aunque se conectan al teléfono móvil para retransmitir el contenido, Izadi destacó que el dispositivo mantiene un diseño ligero, lo que favorece su comodidad en el uso diario.

Además de las gafas, Google está desarrollando la plataforma de realidad extendida Android XR, con la intención de fomentar la creación de aplicaciones basadas en esta tecnología. Estas aplicaciones, impulsadas por inteligencia artificial, permitirán una interacción más fluida y natural mediante visores, como las propias gafas. En este entorno, Gemini jugará un papel clave al ofrecer información en tiempo real sobre lo que el usuario visualiza, integrándose directamente en su línea de visión.

El ecosistema de Google XR cuenta con el respaldo de Qualcomm, que facilitará el desarrollo de nuevos dispositivos.

Google le apuesta a las nuevas tecnologías

GoogleDeepMind planea combinar en un futuro dos de sus modelos, Gemini y Veo, con el objetivo de mejorar la comprensión de la física del mundo del primero y avanzar tanto en la creación de un asistente universal como de la robótica.

Gemini apareció en diciembre de 2023 como un modelo de lenguaje fundacional multimodal de forma nativa, con la capacidad de comprender distintos tipos de información presentada en texto, código, audio, imagen y vídeo.

Año y medio después, el director ejecutivo de Google DeepMind, Demis Hassabis, ha reiterado esta idea en el pódcast Possible, del cofundador de LinkedIn, Reid Hoffman, donde ha expuesto la intención de combinarlo en un futuro con Veo, su modelo de generación de vídeo, que ofrece resultados de alta calidad y con movimiento realista.

La funcionalidad permite eliminar rápidamente datos sensibles.
Google DeepMind planea combinar Gemini y Veo en un futuro. | Foto: SOPA Images/LightRocket via Gett

El motivo se encuentra en que Veo, “al ver muchos vídeos de YouTube, puede comprender la física del mundo”, y ello contribuirá a mejorar la comprensión del contexto de Gemini. Ello contribuirá al desarrollo de un asistente universal y la robótica.

Com ha explicado Hassabis, Google DeepMind tiene la idea de crear un asistente digital universal, “un asistente que te acompaña [...], te ayuda en el mundo real: te recomienda cosas, te ayuda a navegar, te ayuda con cosas físicas en el mundo, como cocinar”.

Pero en lo que respecta a la robótica, “es el comienzo de mostrar lo que podemos hacer con estos modelos multimodales que entienden la física del mundo con un poco de ajuste fino de la robótica además de las acciones, las acciones motoras y la planificación que un robot necesita hacer”, ha apostillado el directivo.

*Con información de Europa Press