Google trabaja con IA para proporcionar seguimiento de manos y dedos para las gafas inteligentes

La solución de inteligencia artificial de Google para el seguimiento de manos y dedos podría ser de gran ayuda para futuras gafas inteligentes.

Nos encontramos justo en el comienzo de la era de las smartglasses. Hasta la fecha, hemos visto como las pioneras han empleado trackpads y/o controladores portátiles para que el usuario pueda interactuar en los diferentes menús. HoloLens 2 y Magic Leap One, son dos dispositivos de realidad aumentada/mixta que se pueden usar mediante control de gestos.

Ahora la compañía creadora de Google Glass ha desarrollado. gracias a la IA, una tecnología en la que el wearable que tengamos puesto en nuestra cabeza, podrá navegar por el menú gracias a los gestos de nuestras manos y nuestros dedos.

Los gestos de la mano con IA y mirando al futuro.

Esta semana, el equipo de IA de Google enseño su nuevo punto de vista para el seguimiento de manos y dedos, que utiliza el marco MediaPipe multiplataforma de código abierto para procesar vídeo en dispositivos móviles y tener al instante la posibilidad de mapear hasta 21 puntos del mano y dedos a través de los modelos de aprendizaje automáticos.

En otras palabras, este enfoque de aprendizaje automático puede aplicarse en dispositivos Android o iOS sin sensores dedicados al movimiento o a la profundidad. Además, el equipo quiere que este desarrollo esté disponible a través de código abierto para que otros desarrolladores e investigadores puedan implementarlo en sus proyectos. El equipo también planea mejorar la precisión y el rendimiento de los modelos de aprendizaje automático con el tiempo.

Ver esta publicación en Instagram

Google ha mostrado el desarrollo de reconocimiento de manos y dedos bajo la IA. +Info⬇️: 👉 La solución de inteligencia artificial de Google para el seguimiento de manos y dedos podría ser de gran ayuda para las futuras gafas inteligentes. 👉 Gracias a la Inteligencia Artificial (IA), Google ha desarrollado una tecnología en la que el usuario podrá interactuar en los diferentes menús mediante los gestos de nuestros dedos y las manos. 👉 De momento este aprendizaje automático puede aplicarse en dispositivos Android e iOS que no tengan sensores dedicados al movimiento o a la profundidad. 👉 Google quiere que esta herramienta esté disponible a través de código abierto para que otros desarrolladores e investigadores puedan implementarla en sus proyectos. ¿ Veremos esta funcionalidad en unas futuras Google Glas ? 🧐 #IA #inteligenciaartificial #gafasderealidadmixta #gafasinteligentes #smartglasses #smartglass #AR

Una publicación compartida de Gglassday (@gglassday) el

En el futuro inmediato, el sistema de seguimiento de manos podría ayudar a los desarrolladores a construir experiencias de AR similares a las de Snapchat y Facebook que incorporan el reconocimiento de manos y el seguimiento en los efectos de cámara selfie.

Sin embargo, la mayor implicación inherente a este desarrollo es lo que un enfoque de aprendizaje automático puede aportar a las gafas inteligentes. Al deshacerse de la matriz de sensores de movimiento y profundidad, los fabricantes de hardware podrían aproximar los métodos de entrada del usuario en HoloLens 2 y Magic Leap One.

Más artículos
Spectacles 3 Snapchat
Spectacles 3, ahora con doble cámara, efectos 3D y Realidad Aumentada

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche en este enlace para mayor información sobre las cookies.

ACEPTAR
Aviso de cookies