La plata.- Un equipo del Instituto de Investigación Informática de la Universidad Nacional de La Plata trabaja en el desarrollo de un sistema para traducir a texto, de manera automática, el lenguaje de señas que utilizan las personas hipoacúsicas. El sistema funciona con una cámara de video conectada a una computadora que permite captar la posición y los movimientos de las manos de quien se expresa en lenguaje de señas y, con el uso de algoritmos, lo traduce a texto en tiempo real. “Se trabaja en el desarrollo de lenguaje inteligente”, contó el doctor en Informática Franco Ronchetti, parte de este equipo de programación.
Comenzaron con dispositivos del estilo del controlador Kinect, de la consola Xbox, que reconoce gestos corporales y da comandos simples como saltar, moverse, correr o dar patadas, por lo que luego les pareció interesante mudarse a la lengua de señas. “Esos golpes y saltos -sostiene Ronchetti- son más fáciles de clasificar porque los dispositivos censan dónde están las manos y pies, y porque los movimientos son bastante simples. Pero en la lengua de señas no sólo hay un movimiento más pequeño, sino que el lenguaje tiene diferentes configuraciones, formas que la mano puede tomar mientras hace una seña, por lo que clasificarlas es sumamente complejo.
Los investigadores partieron del concepto de desarrollar un mecanismo de fácil acceso, por eso el primer paso del proyecto consistió en el armado de una base de datos propia del lenguaje de señas argentino, que no existía, con 800 imágenes de las manos estáticas en las 16 posiciones. Se registraron las señas con una cámara y luego implementaron el proceso que se conoce como “aprendizaje automático”, es decir, que sirve para entrenar un sistema inteligente de una computadora. Debe tener muchos sujetos distintos y cada uno repite varias veces cada seña. Luego de filmar las 64 señas que componen las palabras más usadas del lenguaje de señas y de que un equipo de diez personas repitiera cinco veces cada seña frente a la cámara, se obtuvieron 3200 videos que fueron analizados por el sistema para incorporar modos particulares de mover las manos en distintas personas y caracterizar los movimientos de cada seña.
El proyecto aún está en laboratorio y se espera que la aplicación final contenga cientos de señas. Esta base de datos será de acceso público para todo investigador que quiera usarla.