Publi Orejas y Superior con GPT

Traducir el lenguaje de signos, objetivo de Google con su nueva herramienta

  • Basado en la plataforma de código abierto MediaPipe es capaz de percibir e interpretar movimientos y gestos realizadas con las manos

07/10/2019 - 10:13 h.

Google está desarrollado una herramienta para Android capaz de percibir e interpretar movimientos y gestos realizadas con las manos, tanto en tiempo real como en vídeo, a través de la cámara y traducirlas gracias a la Inteligencia Artificial y el aprendizaje automático, abriéndose así una vía para en un futuro poder contar con un traductor certero del lenguaje de signos.

El proyecto, basado en la plataforma de código abierto MediaPipe, consta de tres partes: BlazePalm, un sistema que hace de detector de palmas  siendo capaz de recortar la forma de la mano del fotograma y ofreciendo una precisión del 95.7 por ciento gracias  a que es capaz de interpretar el contexto adicional, como las características del brazo, el cuerpo o la persona; un modelo que detecta los puntos de referencia en 3D de nudillos y dedos dentro de las distintas regiones de la mano; y un algoritmo que cumple la función de detector de gestos descifrando que está realizando la mano, mediante la clasificación de los puntos claves configurados previamente

Por ahora el modelo incluye gestos de una variedad de culturas y varios signos de manos como los números, un puño cerrado, el ‘OK’, ‘el símbolo de paz’ (o victoria), los cuernos rockerops o el gesto de Spiderman. No obstante, Google explica que su objetivo es continuar extendiendo esta tecnología consiguiendo ofrecer una plataforma más robusta y estable, para aumentar la cantidad de gestos detectables de manera certera, así como identificar gestos dinámicos que se desarrollan en secuencia. Así, el gigante de Internet confía que poniendo esta tecnología al alcance de los desarrolladores y la comunidad de investigadores sirva de impulso para nuevas ideas creativas y aplicaciones.

Es indudable que todavía hay un camino largo por delante pero queda claro que traducir el lenguaje de signos en tiempo real con un dispositivo móvil ya no es ni mucho menos una utopía. Veremos que nos depara el futuro.