Jóvenes de Chubut Crean App Innovadora que Traduce Lengua de Señas con IA: SOLIDX
En el corazón de la Patagonia argentina, cuatro estudiantes universitarios de la tecnicatura en Analista Programador de la Universidad Nacional de la Patagonia San Juan Bosco (UNPSJB), sede Esquel, han dado vida a un proyecto que promete romper barreras de comunicación y transformar la vida de personas con discapacidad auditiva. “SOLIDX”, una aplicación innovadora que traduce lengua de señas a texto y audio en tiempo real, es el resultado de su dedicación, ingenio y un profundo compromiso social. Esta historia no solo destaca el talento emergente en el campo de la inteligencia artificial, sino que también subraya el poder de la tecnología para construir un futuro más inclusivo y accesible para todos.
- El Origen de SOLIDX: Una Conversación que Cambió el Rumbo
- Desafíos Técnicos y el Aprendizaje Autodidacta
- La Arquitectura de SOLIDX: Visión por Computadora y Redes Neuronales
- El Desafío de Aprender Lengua de Señas
- El Alcance Actual y las Proyecciones Futuras de SOLIDX
- El Impacto Social y el Futuro de los Desarrolladores
El Origen de SOLIDX: Una Conversación que Cambió el Rumbo
La chispa que encendió la creación de SOLIDX surgió de una interacción casual pero reveladora. John Franco Hughes, uno de los desarrolladores, mientras trabajaba como tomaestado en Esquel, entabló una conversación con un vecino. Este vecino le compartió la experiencia de su hijo, quien utilizaba un audífono eléctrico pero se enfrentaba a la dificultad de encontrar herramientas que facilitaran la comunicación en lengua de señas. Esta necesidad insatisfecha resonó profundamente en John y su equipo, quienes estaban en la búsqueda de un proyecto desafiante y con impacto social para su trabajo final de Laboratorio y Lenguaje de Programación.
Inicialmente, el grupo consideró diversas opciones, incluyendo el desarrollo de un videojuego con elementos de inteligencia artificial. Sin embargo, la historia del vecino y su hijo les hizo replantearse sus prioridades. Se dieron cuenta de que tenían la oportunidad de aplicar sus conocimientos técnicos para resolver un problema real y mejorar la calidad de vida de personas con discapacidad auditiva. Esta decisión marcó un punto de inflexión en el proyecto, impulsándolos a explorar el campo de la traducción de lengua de señas con inteligencia artificial.
Desafíos Técnicos y el Aprendizaje Autodidacta
El desarrollo de SOLIDX no fue un camino fácil. Los estudiantes se enfrentaron a numerosos desafíos técnicos, especialmente considerando que la tecnicatura en Analista Programador no incluía materias específicas sobre sistemas en tiempo real o inteligencia artificial. Sin embargo, esta carencia no los detuvo. Con las bases sólidas proporcionadas por la universidad y una gran dosis de autodidactismo, se sumergieron en el estudio de la visión por computadora y las redes neuronales artificiales, las tecnologías clave para hacer realidad su visión.
La visión por computadora, un campo de la inteligencia artificial que permite a las máquinas "ver" e interpretar imágenes y videos, fue fundamental para capturar y analizar los gestos en lengua de señas. Las redes neuronales artificiales, por su parte, fueron esenciales para procesar los datos visuales y reconocer los patrones complejos que representan cada gesto. Para implementar estas tecnologías, los estudiantes utilizaron Python, TensorFlow y MediaPipe, herramientas de código abierto que les permitieron identificar puntos clave del cuerpo, como el rostro, el torso y las manos, y crear su propio modelo de inteligencia artificial desde cero.
La Arquitectura de SOLIDX: Visión por Computadora y Redes Neuronales
La arquitectura de SOLIDX se basa en la combinación de dos tecnologías principales: la visión por computadora y las redes neuronales artificiales. La visión por computadora actúa como los "ojos" de la aplicación, capturando imágenes y videos de la persona que realiza los gestos en lengua de señas. Estas imágenes se procesan para identificar y rastrear los puntos clave del cuerpo, como las manos, los dedos y las expresiones faciales.
Una vez que se han extraído los datos visuales relevantes, se envían a las redes neuronales artificiales, que actúan como el "cerebro" de la aplicación. Estas redes están entrenadas para reconocer los patrones complejos que representan cada gesto en lengua de señas. El proceso de entrenamiento implica alimentar a la red neuronal con una gran cantidad de datos de ejemplo, es decir, imágenes y videos de personas realizando diferentes gestos. A medida que la red procesa estos datos, aprende a identificar las características distintivas de cada gesto y a asociarlos con su significado correspondiente.
El resultado final es un sistema capaz de traducir los gestos en lengua de señas a texto y audio en tiempo real. La aplicación utiliza algoritmos de procesamiento del lenguaje natural para generar frases coherentes y comprensibles a partir de los gestos reconocidos. Además, puede sintetizar voz para proporcionar una salida de audio que complemente la traducción textual.
El Desafío de Aprender Lengua de Señas
Uno de los mayores desafíos que enfrentaron los estudiantes fue aprender lengua de señas. Si bien la aplicación se basa en inteligencia artificial, es fundamental que los desarrolladores tengan un conocimiento básico del lenguaje para poder entrenar adecuadamente el modelo y garantizar la precisión de la traducción. Dado que no contaban con experiencia previa en lengua de señas, recurrieron a recursos en línea, principalmente videos de YouTube, para adquirir los conocimientos necesarios.
A través de estos recursos, aprendieron los gestos básicos y las reglas gramaticales de la lengua de señas. Luego, utilizaron este conocimiento para entrenar a la inteligencia artificial, proporcionándole ejemplos de gestos y sus correspondientes traducciones. Este proceso de entrenamiento fue iterativo, lo que significa que los estudiantes constantemente ajustaban y mejoraban el modelo en función de los resultados obtenidos. La precisión de la aplicación depende en gran medida de la calidad y cantidad de los datos de entrenamiento, por lo que los estudiantes dedicaron un tiempo considerable a recopilar y etiquetar ejemplos de gestos.
El Alcance Actual y las Proyecciones Futuras de SOLIDX
En su etapa actual, SOLIDX es capaz de traducir con precisión entre diez y quince gestos comunes en lengua de señas. Si bien este número puede parecer limitado, los estudiantes enfatizan que la aplicación está en constante evolución y que su objetivo es ampliar el vocabulario y mejorar la precisión de la traducción. Para lograr esto, planean seguir recopilando datos de entrenamiento y experimentar con diferentes arquitecturas de redes neuronales.
Además de mejorar la precisión y el vocabulario, los estudiantes tienen la visión de expandir la funcionalidad de SOLIDX para que pueda ser utilizada en una variedad de plataformas, incluyendo aplicaciones de escritorio, web y móviles. Esto permitiría que la aplicación sea accesible a un público más amplio y que pueda ser utilizada en diferentes contextos, como escuelas, hospitales y lugares de trabajo. También están explorando la posibilidad de integrar SOLIDX con otras tecnologías, como dispositivos de realidad aumentada, para crear experiencias de comunicación aún más inmersivas y personalizadas.
La aplicación no solo se limita a la traducción de gestos individuales, sino que también busca comprender el contexto y la gramática de la lengua de señas para generar traducciones más precisas y naturales. Esto implica el desarrollo de algoritmos de procesamiento del lenguaje natural que puedan analizar la secuencia de gestos y determinar el significado de la frase completa. Los estudiantes están trabajando en la implementación de estos algoritmos para mejorar la calidad de la traducción y hacer que SOLIDX sea una herramienta de comunicación verdaderamente efectiva.
SOLIDX representa un ejemplo tangible del poder de la tecnología para abordar desafíos sociales y mejorar la calidad de vida de las personas. Al facilitar la comunicación entre personas sordas y oyentes, la aplicación puede ayudar a romper barreras, promover la inclusión y fomentar la igualdad de oportunidades. Los estudiantes de UNPSJB han demostrado que la innovación tecnológica puede ser una fuerza para el bien, y su proyecto inspira a otros jóvenes a utilizar sus habilidades y conocimientos para crear un futuro más justo y equitativo.
En cuanto al futuro de los desarrolladores, John Franco Hughes planea continuar sus estudios y cursar la licenciatura en Analista Programador. Está considerando la posibilidad de trasladarse a Madryn o Comodoro para completar sus estudios. Eric Vincon, Valentín Roo y Alen Vinay también están explorando diferentes opciones profesionales y académicas. Todos coinciden en que la experiencia de desarrollar SOLIDX ha sido invaluable y que les ha proporcionado las habilidades y la confianza necesarias para enfrentar los desafíos del mundo laboral.
La historia de SOLIDX es un testimonio del talento y la dedicación de los estudiantes de UNPSJB. Su proyecto no solo ha demostrado el potencial de la inteligencia artificial para transformar la vida de las personas con discapacidad auditiva, sino que también ha puesto de manifiesto la importancia de la educación y la investigación en el campo de la tecnología. Con su innovación y compromiso social, estos jóvenes están allanando el camino hacia un futuro más inclusivo y accesible para todos.



Artículos relacionados