Las gafas de realidad virtual Meta Quest 2 pueden determinar tus movimientos, poses y posturas corporales sin depender de sensores adicionales. Esta tecnología sería incorporada al metaverso.
Desde Meta Reality Labs, los investigadores Alexander Winkler, Jungdam Won y Yuting Ye lograron que las gafas de realidad virtual de Meta, los Quest 2, muestren los movimientos de cuerpo entero de los usuarios usando Machine Learning, una rama de la inteligencia artificial.
MIRA: Dell inauguró su primer Centro de Experiencia en el Perú
En el video, Winkler explica que usaron Machine Learning (ML), una forma de IA que permite a un sistema aprender por sí solo sin una programación humana. Entrenaron a 4.000 personajes inteligentes usando los sensores del visor Meta Quest 2 para reunir los datos suficientes sobre qué movimientos realizaría un usuario portador.
Como resultado, el Meta Quest 2 predice que, por ejemplo, si mueves tus brazos a cierto ritmo y en cierta dirección, tus piernas y pies están respondiendo de una forma específica, como cuando corres o balanceas tus brazos.
MIRA: El robot Saildrone Explorer muestra cómo luce el huracán Fiona desde dentro | VIDEO
Tecnología por desarrollar
Los investigadores, autores del artículo llamado QuestSim, reconocen que la tecnología aún no es perfecta, ya que aún existen problemas en la captación de movimientos.
Principalmente debido a que el ML no está entrenado para leer todas las combinaciones motrices del cuerpo y que, en los casos que uno se mueve demasiado rápido, falla en la reproducción de tu postura.
MIRA: Inteligencia artificial es capaz de convertir cualquier palabra en un Pokémon
No obstante, es muy probable que este sistema será utilizado en aplicaciones, videojuegos e incluso el metaverso en el futuro.
Aquí puedes ver cómo tu avatar imitará todos tus movimientos con Meta Quest 2.
Contenido sugerido
Contenido GEC