Esta es una traducción automática. Para ver el texto original en inglés
haga clic aquí
#Tendencias de productos
{{{sourceTextContent.title}}}
La interfaz cerebro-máquina puede crear un habla sintética basada en la actividad cerebral
{{{sourceTextContent.subTitle}}}
Los investigadores de la Universidad de California en San Francisco han desarrollado una interfaz cerebro-máquina que puede permitir a los pacientes con problemas de habla "hablar" a través del dispositivo. Los investigadores han descrito el sistema como un peldaño hacia las prótesis neurales del habla. El sistema monitorea la actividad cerebral de un usuario y luego la convierte en un discurso que suena natural usando un tracto vocal virtual. Esta simulación por computadora incluye representaciones anatómicamente precisas de una laringe, lengua, labios y mandíbula.
{{{sourceTextContent.description}}}
Los pacientes pueden perder la capacidad de hablar debido a una variedad de factores, incluyendo enfermedades neurodegenerativas, accidentes cerebrovasculares y lesiones cerebrales. Las tecnologías de asistencia actuales pueden permitir a ciertos pacientes deletrear palabras usando pequeños movimientos faciales y otras técnicas. Aunque estas tecnologías son indudablemente muy útiles, puede llevar mucho tiempo comunicarse de esta manera.
Para proporcionar una mejor manera para que estos pacientes se comuniquen, los investigadores han desarrollado una interfaz cerebro-máquina que puede traducir la actividad en los centros del habla del cerebro a un habla con sonido natural. Esta es una tarea compleja, ya que la forma en que los centros del habla coordinan los movimientos del tracto vocal es complicada.
"La relación entre los movimientos del tracto vocal y los sonidos del habla que se producen es complicada", dijo Gopala Anumanchipalli, investigadora involucrada en el estudio. "Razonamos que si estos centros del habla en el cerebro codifican movimientos en lugar de sonidos, deberíamos intentar hacer lo mismo al decodificar esas señales."
Los investigadores crearon un tracto vocal virtual y luego utilizaron una máquina de aprendizaje para conseguir que produjera los sonidos correctos. Los voluntarios dijeron frases específicas en voz alta mientras se monitoreaba su actividad cerebral. Se utilizó el aprendizaje automático para adaptar estas señales neuronales a los movimientos del tracto vocal virtual que producían un sonido natural que se ajustaba mucho a la frase original.
"Todavía tenemos maneras de imitar perfectamente el lenguaje hablado", dijo Josh Chartier, otro investigador que participó en el estudio. "Somos bastante buenos en sintetizar los sonidos más lentos del habla como'sh' y'z', así como en mantener los ritmos y la entonación del habla y el género y la identidad del orador, pero algunos de los sonidos más abruptos como'b' y'p' se vuelven un poco confusos. Aún así, los niveles de precisión que producimos aquí serían una mejora asombrosa en la comunicación en tiempo real en comparación con lo que está disponible actualmente"
Los investigadores esperan que la tecnología pueda proporcionar una manera conveniente y poderosa de comunicarse para aquellos que no pueden hablar.
"Las personas que no pueden mover los brazos y las piernas han aprendido a controlar las extremidades robóticas con el cerebro", dijo Chartier. "Esperamos que algún día las personas con discapacidades del habla puedan aprender a hablar de nuevo usando este tracto vocal artificial controlado por el cerebro"