{{{sourceTextContent.subTitle}}}
En entornos ruidosos, a los usuarios de audífonos o implantes auditivos les resulta difícil entender a su interlocutor porque los procesadores de audio actuales siguen teniendo dificultades para centrarse en fuentes de sonido específicas. En un estudio de viabilidad, los investigadores del Laboratorio de Investigación Auditiva de la Universidad de Berna y el Inselspital sugieren ahora que la inteligencia artificial podría resolver este problema.
{{{sourceTextContent.description}}}
En la actualidad, los audífonos o implantes auditivos no son muy buenos para filtrar selectivamente el habla específica de muchas fuentes de sonido para el usuario, una capacidad natural del cerebro humano y del sentido del oído conocida en audiología como "efecto cóctel". Por ello, a los usuarios de audífonos les resulta difícil seguir una conversación en un entorno ruidoso.
Los investigadores del Laboratorio de Investigación Auditiva del Centro ARTORG, de la Universidad de Berna, y del Inselspital han ideado ahora un enfoque inusual para mejorar los audífonos en este sentido: micrófonos auxiliares virtuales cuyas señales son calculadas por la inteligencia artificial.
Cuantos más micrófonos haya y más distribuidos estén, mejor podrá un audífono centrarse en el sonido procedente de una dirección concreta. La mayoría de los audífonos tienen dos micrófonos muy juntos por falta de espacio. En la primera parte del estudio, el Laboratorio de Investigación Auditiva (HRL) determinó que la ubicación óptima del micrófono (para un mejor enfoque) es en el centro de la frente, aunque es una ubicación muy poco práctica. "Quisimos sortear este problema añadiendo un micrófono virtual al procesador de audio mediante inteligencia artificial", explica Tim Fischer, investigador postdoctoral del HRL, sobre este enfoque poco convencional.
Para la configuración del estudio, los ingenieros del Centro ARTORG utilizaron el "Bern Cocktail Party Dataset", una colección de diversos escenarios de ruido con múltiples fuentes de sonido procedentes de grabaciones con varios micrófonos de usuarios de audífonos o implantes cocleares. Utilizando 65 horas de grabaciones de audio (más de 78.000 archivos de audio), entrenaron una red neuronal para perfeccionar un algoritmo de direccionalidad comúnmente utilizado (beamformer). Para mejorar la comprensión del habla, el enfoque de aprendizaje profundo calculó señales de micrófono virtuales adicionales a partir de la mezcla de datos de audio. 20 sujetos probaron la audición mejorada por la IA en una prueba de audición subjetiva acompañada de mediciones objetivas. Especialmente en entornos de cócteles, las señales de micrófono virtualmente muestreadas mejoraron significativamente la calidad del habla. Por tanto, los usuarios de audífonos e implantes cocleares podrían beneficiarse del enfoque presentado, especialmente en entornos ruidosos.
"Creo que la inteligencia artificial representa una importante contribución a la próxima generación de prótesis auditivas, ya que tiene un gran potencial para mejorar la comprensión del habla, especialmente en situaciones auditivas difíciles", afirma Marco Caversaccio, médico jefe y director del departamento de ORL.
Aunque en este estudio los micrófonos añadidos virtualmente mejoraron significativamente la calidad de la comprensión del habla con los audífonos, todavía es necesario realizar más estudios para superar algunos obstáculos técnicos antes de que la metodología pueda utilizarse en audífonos o procesadores de audio para implantes cocleares. Esto incluye, por ejemplo, una comprensión direccional de funcionamiento estable incluso en entornos reverberantes.