December 11, 2023
5 min read
Written by
Danielle Contreras
Technology
Spanish
December 11, 2023
5 min read
Written by
Danielle Contreras
Technology
Spanish

Cómo puede beneficiar la IA a la comunidad de personas sordas y con dificultades auditivas

En la sociedad moderna actual, la tecnología nos rodea y forma parte de la vida cotidiana. Aunque algunos piensen que la tecnología y la inteligencia artificial (IA) plantean cuestiones éticas o argumenten que nuestro mundo puede depender demasiado de ellas, es innegable el progreso que la IA ha realizado en materia de accesibilidad. A medida que la IA sigue mejorando y ampliando sus capacidades, ofrece cada vez más ventajas a la comunidad de personas sordas y con problemas de audición. La IA hace que el mundo sea más accesible para las personas sordas y con dificultades auditivas a través de servicios como el subtitulado y el reconocimiento del habla, lo que repercute positivamente en su forma de consumir medios, aprender y comunicarse en persona y por teléfono o Internet.

Cómo la tecnología actual está fallando a la comunidad sorda y con dificultades auditivas

Los avances tecnológicos y la inteligencia artificial han hecho que los medios de comunicación y la comunicación sean más accesibles que nunca. Sin embargo, estos avances no están exentos de fallos y aún quedan progresos por hacer. En Estados Unidos, gracias a las normas establecidas por la Comisión Federal de Comunicaciones (FCC), es obligatorio que todos los distribuidores de programas de vídeo, incluidos los operadores de cable y las emisoras, ofrezcan subtítulos para los programas de televisión. Aunque esto contribuye en gran medida a que los programas de televisión y las películas sean más accesibles, todavía no existen normas para los contenidos de Youtube, Instagram u otras plataformas similares, que constituyen una cantidad cada vez mayor de los contenidos de vídeo que se consumen. Además, muchos de los subtítulos que se proporcionan pueden seguir siendo deficientes, ya que los subtítulos generados automáticamente son a menudo inexactos o no están sincronizados con la pista de audio. Otra área que carece de accesibilidad son los centros de atención al cliente que son solo telefónicos o los sistemas automatizados que requieren que la persona que llama navegue por el sistema utilizando solo la voz. A medida que la tecnología y la inteligencia artificial sigan mejorando y permitan un uso más amplio de funciones como la conversión de voz a texto y un mejor reconocimiento de voz, es de esperar que se den pasos adelante para que las personas con problemas de audición tengan un acceso más fácil para una mayor independencia y facilidad de uso.

¿Qué es la IA y el aprendizaje automático?

Mientras que la IA es un concepto que la mayoría de la gente ha conocido o con el que está familiarizada, el término aprendizaje automático es probablemente más abstracto. El aprendizaje automático es responsable de la mayoría de las tecnologías y automatizaciones que encontramos a diario, desde los chatbots hasta las sugerencias sobre qué películas o vídeos ver e incluso los vehículos autónomos. El aprendizaje automático, un subcampo o aplicación de la inteligencia artificial, es lo que permite a un sistema informático aprender y desarrollar inteligencia. El sistema informático es capaz de seguir aprendiendo y mejorando por sí mismo sin programación directa, utilizando un proceso de modelos matemáticos de datos.

Dentro del aprendizaje automático hay varios modelos y enfoques entre los que los programadores pueden elegir, todos los cuales influyen en cómo funciona el modelo y en su precisión.


Un mundo más accesible gracias a la inteligencia artificial

A medida que aumentan las capacidades de la inteligencia artificial, surgen más aplicaciones para facilitar la comunicación entre personas sordas y oyentes. La IA ha hecho que la comunicación en persona sea más accesible para la comunidad sorda gracias a los avances en el aislamiento del sonido y los algoritmos de lectura de labios. Los investigadores de Google han creado una aplicación de IA capaz de aislar la voz de una persona de la de otros interlocutores y del ruido de fondo. Del mismo modo que una persona sin pérdida de audición u otras dificultades puede centrar su atención en un orador concreto para concentrarse mejor en lo que dice, esta tecnología puede hacer lo mismo para facilitar que las personas con problemas de audición oigan con mayor claridad, especialmente en entornos concurridos. Google también es responsable de la creación de una IA capaz de generar subtítulos para quienes dependen de la lectura de labios. Basándose en algoritmos, el sistema de IA supera ya a los lectores de labios profesionales, traduciendo con precisión el 46,8% de las palabras. Aunque esta tecnología aún está aprendiendo y mejorando, su futura aplicación a audífonos y otros dispositivos de asistencia podría mejorar enormemente el reconocimiento del habla para los usuarios.

IA y reconocimiento automático del habla (ASR)

El reconocimiento automático del habla (ASR) permite convertir las entradas de audio en subtítulos fáciles de leer. Para generar subtítulos precisos, el ASR se basa en la inteligencia artificial y el aprendizaje automático para descifrar lo que se dice y atribuir el contexto. La ASR se utiliza en diversas situaciones para traducir voz a texto, tanto en conversaciones en persona como en conversaciones telefónicas y videollamadas. Otra aplicación de la ASR son los subtítulos generados automáticamente en aplicaciones como TikTok, Instagram y Youtube, que permiten a los espectadores sordos o con dificultades auditivas disfrutar de los contenidos. Esta misma tecnología también puede utilizarse para transcribir conversaciones en persona a través de diversas aplicaciones como LiveTranscribe, mostrando subtítulos de lo que se está diciendo para facilitar una comunicación más clara. Aplicaciones como InnoCaption utilizan ASR para proporcionar subtítulos en tiempo real de las llamadas telefónicas y hacer que las conversaciones sean más accesibles para las personas con problemas de audición.

La inteligencia artificial también desempeña un papel fundamental a la hora de hacer las aulas más accesibles para los estudiantes sordos o con dificultades auditivas, lo que les facilita rendir al máximo académicamente. Colegios y universidades como el Instituto de Tecnología de Rochester, al norte del estado de Nueva York, han utilizado el reconocimiento automático del habla para ofrecer subtítulos de las clases en directo. Cuando el profesor lleva un auricular durante la clase, se generan subtítulos a través de Microsoft Translator y aparecen para los estudiantes asistentes. De este modo, los estudiantes sordos reciben la información al mismo tiempo que sus compañeros oyentes y pueden centrarse en asimilar la información en lugar de intentar seguir el ritmo de la clase.

AI y subtítulos

Aunque la inteligencia artificial es un componente clave de todos los subtítulos, a medida que la tecnología avanza, los subtítulos opcionales son cada vez más aplicables también a los usuarios de la lengua de signos. La empresa Cochlear ha desarrollado una tecnología de personalización de subtítulos. Esta tecnología no sólo transcribe el audio en tiempo real, sino que también traduce la lengua de signos junto al texto. Del mismo modo, una empresa holandesa ha desarrollado una aplicación llamada GynoSys, capaz de traducir la lengua de signos a subtítulos e incluso a voz.

AI y lenguaje de signos

La abundancia de contenidos de vídeo subidos a plataformas como Youtube, Instagram y TikTok puede hacer que muchos espectadores sordos que dependen de la lengua de signos se sientan excluidos. La nueva tecnología de IA pretende hacer que los medios de comunicación sean más accesibles para la comunidad sorda mediante la introducción de nuevos avatares capaces de utilizar el lenguaje de signos. Hay aproximadamente 70 millones de personas que utilizan la lengua de signos en todo el mundo y más de 300 lenguas de signos diferentes. No existe una lengua de signos universal, ya que cada una de ellas se basa en el dialecto y la cultura únicos de la región de la que procede. La lengua de signos no sólo se compone de signos manuales, sino también de movimientos corporales y expresiones faciales para comunicar emociones y convertir una frase en una pregunta.

Robotica, una empresa emergente con sede en el Reino Unido, ha creado avatares digitales que actúan como intérpretes de lengua de signos. Adrian Pickering, director general de Robotica, vio la necesidad de más intérpretes de lengua de signos de los que hay disponibles y cree que, con la cantidad de contenidos que se producen, la traducción automática es la mejor manera de ofrecer igualdad de acceso a la comunidad sorda. En la actualidad, los intérpretes digitales de Robotica conocen la lengua de signos británica (BSL) y están aprendiendo las lenguas de signos americana e italiana.  Dado que la traducción del lenguaje de signos se encuentra en sus primeras fases, no existen sistemas que permitan a los usuarios traducir directamente del lenguaje de signos americano al BSL u otros lenguajes de signos, o traducir el lenguaje de signos a cualquier lengua extranjera. Sin embargo, los investigadores están trabajando duro para crear sistemas capaces de traducir la lengua de signos de cada región.

IA y asistentes de voz

Asistentes de voz como Alexa, de Google, y Siri, de iPhone, están presentes en la mayoría de los hogares y son una parte cada vez más habitual de la vida cotidiana. Sin embargo, los asistentes de voz desempeñan un papel mucho más importante que el de simplificar las tareas cotidianas, y ahora los investigadores están utilizando esta tecnología para ayudar a las personas con pérdida de audición. La misma tecnología de los asistentes de voz se ha modificado para ofrecer una experiencia auditiva más especializada. Cochlear, uno de los principales proveedores de implantes auditivos, ha patentado su propio asistente de voz basado en inteligencia artificial, llamado FOX.

La tecnología en la que se basa FOX utiliza pruebas de percepción del habla y de los resultados de los pacientes en su algoritmo de optimización de la adaptación, con el fin de ofrecer a los pacientes un mejor resultado y adaptar mejor su implante coclear para satisfacer sus necesidades.

Del mismo modo que la IA genera una voz que suena humana para responder a las órdenes dadas a los asistentes de voz, estas mismas capacidades se utilizan para las funciones de texto a voz. Las funciones de texto a voz permiten mejorar la accesibilidad de las personas sordas que no pueden hablar por sí mismas o tienen dificultades para hacerse entender debido a su acento. La posibilidad de utilizar la función de texto a voz facilita la navegación por sistemas automatizados y hace que las conversaciones telefónicas sean accesibles, o puede facilitar la comunicación en casos en los que no se disponga de un intérprete de lengua de signos. Nuevas aplicaciones como Voiceitt utilizan la inteligencia artificial para crear programas informáticos que pueden entrenarse para reconocer, aprender y predecir el habla de personas con un habla limitada y patrones de habla únicos. Esta tecnología engloba múltiples funciones del reconocimiento del habla y la IA, ya que Voiceitt es capaz de apoyar la comunicación hablada reconociendo, diciendo y mostrando frases en tiempo real, en conversaciones en persona. La inteligencia artificial permite una gran variedad de aplicaciones del reconocimiento de voz utilizadas para facilitar la comunicación y mejorar la vida cotidiana de quienes tienen necesidades de accesibilidad.

El futuro de la IA y la accesibilidad

Los avances en inteligencia artificial desempeñan un papel importante en la creación de un mundo más accesible y seguro para las personas sordas o con dificultades auditivas. Las aplicaciones de la IA en los avances en subtitulación y traducción al lenguaje de signos proporcionan una mayor igualdad de oportunidades tanto en la educación como en el lugar de trabajo. A medida que la IA sigue aprendiendo, no faltan sus aplicaciones. Además de facilitar las conversaciones, la IA también está permitiendo a empresas como Wavio diseñar tecnología de reconocimiento de sonidos para que las personas sordas o con dificultades auditivas puedan "ver" los sonidos que les rodean. El software de reconocimiento de sonido puede implementarse en dispositivos inteligentes para no sólo alertar al usuario del sonido, sino también identificar correctamente el ruido. Este tipo de aplicaciones pueden ser fundamentales para ayudar a mantener la seguridad de los usuarios, pero también una ventaja para los padres sordos o con dificultades auditivas para alertarles si sus hijos se caen o están en apuros. Se siguen diseñando más aplicaciones de inteligencia artificial para permitir a las personas con problemas de audición un mejor acceso a la información y el entretenimiento, contribuyendo a mejorar la inclusión y la igualdad de oportunidades. A medida que aumente la capacidad de la inteligencia artificial y se convierta en una parte cada vez más integral de la vida cotidiana, esperamos que la accesibilidad también se convierta en algo cada vez más común.

Play
1min

Make calls with confidence

InnoCaption provides real-time captioning technology making phone calls easy and accessible for the deaf and hard of hearing community. Offered at no cost to individuals with hearing loss because we are certified by the FCC. InnoCaption is the only mobile app that offers real-time captioning of phone calls through live stenographers and automated speech recognition software. The choice is yours.

Llame con confianza

InnoCaption proporciona tecnología de subtitulado en tiempo real que hace que las llamadas telefónicas sean fáciles y accesibles para la comunidad de personas sordas y con problemas de audición. Se ofrece sin coste alguno para las personas con pérdida auditiva porque estamos certificados por la FCC. InnoCaption es la única aplicación móvil que ofrece subtitulación en tiempo real de llamadas telefónicas mediante taquígrafos en directo y software de reconocimiento automático del habla. Usted elige.