Palabras y frases clave de la Lengua de Señas Mexicana (LSM) ya pueden ser traducidas a voz gracias a un innovador proyecto desarrollado por estudiantes del Instituto Politécnico Nacional (IPN), que busca facilitar la comunicación y promover la inclusión de personas con discapacidad auditiva.
El prototipo, titulado “Reconocedor de gestos de la lengua de señas mexicana utilizando señales mioeléctricas y sensores de posición”, fue creado por Valeria Ramos Vázquez y Pedro Martín Morales Flores, estudiantes de Ingeniería Biónica en la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (UPIITA), como parte de su trabajo de titulación.
Mediante el uso de un guante con sensores de posición y circuitos que captan señales mioeléctricas del brazo y antebrazo, el sistema identifica gestos de la LSM, los procesa con algoritmos de aprendizaje automático y reproduce el audio correspondiente. La base de datos incluye 13 frases de uso común como “buenos días”, “por favor” y “te ayudo”, desarrolladas con el apoyo de la organización Latido Sordo A.C. y el diccionario oficial Manos con voz del Gobierno de México.
Expertos de UPIITA, como la doctora Blanca Tovar Corona y el doctor Álvaro Anzueto Ríos, destacaron que el sistema no solo detecta movimientos, sino que también interpreta su significado, diferenciando gestos similares con precisión.
El proyecto representa un paso significativo hacia la accesibilidad comunicativa en México, integrando ciencia, empatía y tecnología para fortalecer el derecho a la expresión de todas las personas.





