Revolutionizando la Restauración del Habla Investigación Liderada por Stanford Revela una Neuroprótesis de Alto Rendimiento para la Comunicación sin Restricciones

Investigación de Stanford revoluciona la restauración del habla con neuroprótesis de alto rendimiento para comunicación sin restricciones.

Las interfaces cerebro-computadora (BCIs) de voz son un avance tecnológico de vanguardia con aplicaciones prometedoras para la rehabilitación de personas que perdieron la capacidad de comunicarse debido a una discapacidad. La decodificación de los procesos cerebrales para permitir la comunicación de frases ilimitadas de un amplio léxico aún está en sus primeras etapas, aunque las investigaciones iniciales han mostrado promesa.

Como una forma de llenar este vacío, un equipo de investigadores de la Universidad de Stanford, la Universidad de Washington en St. Louis, el Centro RR&D de la VA para Neurorestauración y Neurotecnología, la Universidad Brown y la Escuela de Medicina de Harvard presentaron recientemente una BCI de voz de alto rendimiento que puede procesar oraciones no restringidas de un vocabulario amplio a una velocidad de 62 palabras por minuto. Esta velocidad supera ampliamente las tasas de comunicación de las tecnologías convencionales para personas con parálisis. Utilizando grabaciones de actividad cerebral del ensayo clínico piloto BrainGate2, el equipo examinó primero cómo el córtex motor organiza el movimiento orofacial y la producción de habla. Descubrieron que todos los movimientos estudiados estaban fuertemente ajustados en la región 6v.

Luego, los investigadores observaron cómo los datos de cada movimiento se distribuían en el área 6v, descubriendo que la matriz dorsal llevaba más información sobre los movimientos orofaciales, pero que la matriz ventral proporcionaba las tasas de decodificación de voz más confiables. A pesar de esto, las matrices 6v ofrecen una gran cantidad de datos sobre cada tipo de movimiento. Finalmente, las matrices de 3.2 3.2 mm2 pueden representar adecuadamente todos los articuladores de voz. A continuación, examinaron si podían analizar de manera neutral oraciones completas en tiempo real. Utilizaron técnicas de aprendizaje automático inspiradas en el reconocimiento de voz de vanguardia para entrenar una red neuronal recurrente (RNN) que sobresale con un mínimo de datos neurales.

Utilizando sus datos, el método sugerido puede decodificar correctamente el 92% de 50 palabras, el 62% de 39 fonemas y el 92% de todos los movimientos orofaciales. Además, se logran 62 palabras por minuto utilizando la BCI de voz a texto. En resumen, la sintonización coherente y espacialmente entremezclada a todos los movimientos examinados muestra que la representación de la articulación del habla es lo suficientemente fuerte como para sostener una BCI de voz a pesar de la parálisis y la cobertura limitada de la superficie cortical. Las grabaciones del área 6v se utilizaron para un análisis adicional porque el área 44 proporcionó datos mínimos relacionados con la producción del habla.

La capacidad de hablar y moverse puede verse gravemente comprometida, si no se pierde por completo, en personas con enfermedades neurológicas como un derrame cerebral en el tronco cerebral o esclerosis lateral amiotrófica. Las personas paralizadas ahora pueden escribir entre ocho y dieciocho palabras por minuto utilizando BCIs basadas en la actividad del movimiento de la mano. Aunque muestran un gran potencial, las BCIs de voz aún no han alcanzado una excelente precisión en vocabularios amplios, lo que aceleraría en gran medida su capacidad para restablecer la comunicación natural. Utilizando matrices de microelectrodos para registrar la actividad cerebral con resolución de neuronas individuales, los investigadores desarrollaron una BCI de voz que puede analizar oraciones sin restricciones de un amplio vocabulario (a una velocidad de 62 palabras por minuto). Esta es la primera vez que se demuestra que una BCI ofrece tasas de comunicación mucho más rápidas que otras tecnologías para personas paralizadas.

Este experimento demuestra que es posible utilizar la actividad de disparo neural para decodificar intentos de habla, incluido un amplio vocabulario. Sin embargo, cabe señalar que el sistema aún debe completarse lo suficiente como para ser utilizado en un entorno clínico. Aún queda trabajo por hacer para que las BCIs sean más fáciles de usar al minimizar el tiempo de entrenamiento del decodificador y adaptarse a las variaciones en la actividad cerebral a lo largo de muchos días. Además, se necesita más evidencia sobre la seguridad y eficacia antes de que las matrices de microelectrodos intracorticales puedan utilizarse ampliamente en entornos clínicos. Además, los resultados de decodificación demostrados aquí deben replicarse en participantes adicionales y no está claro si se aplicarían a personas con una parálisis orofacial más grave. Se requiere más investigación para confirmar que las regiones del giro precentral que almacenan información del habla pueden dirigirse de manera confiable en individuos con diferentes grados de estructura cerebral, lo cual es un problema potencial.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Los desarrolladores buscan OpenUSD en la era de la IA y la digitalización industrial

Desde fábricas inteligentes hasta sistemas ferroviarios de próxima generación, desarrolladores y empresas de todo el ...

Inteligencia Artificial

Cómo los científicos están descifrando códigos históricos para revelar secretos perdidos

El proyecto DECRYPT, una colaboración entre lingüistas y científicos de la computación, tiene como objetivo automatiz...

Inteligencia Artificial

Cómo diseñar un sensor confiable de $1 para agua potable segura

Ingenieros de la Universidad de Chicago y de la Universidad de Wisconsin-Milwaukee han desarrollado un sensor potenci...

Inteligencia Artificial

ChatGPT con Ojos y Oídos BuboGPT es un Enfoque de IA que Permite la Fundamentación Visual en LLMs Multi-Modales

I had trouble accessing your link so I’m going to try to continue without it. Los Modelos de Lenguaje Grandes (...