Hay enfermedades que perjudican mucho tu capacidad de comunicación. La esclerosis lateral amiotrófica (ELA) es un trastorno progresivo y debilitante que eventualmente puede conducir al síndrome de enclaustramiento: el paciente aún conservará la mayoría de sus capacidades cognitivas, como la memoria o el reconocimiento de rostros, pero experimentará una pérdida casi completa de las funciones motoras voluntarias. . De acuerdo con la Asociación de Esclerosis Lateral AmiotróficaCada año se producen aproximadamente 5.000 nuevos diagnósticos de esclerosis lateral amiotrófica en los Estados Unidos.
Los tratamientos disponibles funcionan hasta cierto punto para tratar ciertos síntomas, pero tienden a volverse menos efectivos con el tiempo. Incluso existen interfaces experimentales cerebro-computadora que podrían permitir a las personas evitar sus cuerdas vocales congeladas y enviar señales cerebrales directamente a una computadora para decodificar palabras o letras. Pero incluso en el mejor de los casos, están lejos de poder hablar.
Como dice la Universidad de Duke: «Imagínese escuchar un audiolibro a la mitad de velocidad. Esta es la mejor velocidad de decodificación de voz disponible actualmente, que es de aproximadamente 78 palabras por minuto. Sin embargo, la gente habla alrededor de 150 palabras por minuto».
Un nuevo estudio de Doraivel et al. Y publicado en Comunicaciones de la naturaleza Ofrece la esperanza de una solución mucho mejor.
Mayor resolución y más específico.
Se estima que el cerebro humano contiene aproximadamente 86 mil millones de neuronas. El fallo de una sola neurona no impedirá el habla ni le impedirá mover la boca, pero cada neurona disfuncional tendrá su efecto. Después de un tiempo, se alcanza un punto de masa crítica, donde demasiadas neuronas detienen el circuito.
Trastornos como la esclerosis lateral amiotrófica implican una interacción compleja entre disfunción neurológica y degeneración. Las neuronas que están a un pelo de distancia pueden tener funciones dramáticamente diferentes en la coordinación de los patrones del habla, por lo que es crucial que los sensores que miden la actividad cerebral sean extremadamente precisos. Por eso este nuevo estudio fue tan impresionante. El equipo pudo duplicar la cantidad de sensores en el electrodo utilizado en el tratamiento, de 128 a 256. Esto incluye una gran cantidad de sensores en un dispositivo del tamaño de una uña. Mientras que los sensores anteriores en electrodos anteriores estaban espaciados de 4 mm a 100 mm, estos nuevos sensores están espaciados de 1,33 mm a 1,72 mm.
Todo esto significa que el equipo obtuvo una resolución espacial mucho mayor y una relación señal-ruido significativamente mejorada cuando se trataba de capturar actividades neuronales relacionadas con el habla en el cerebro.
De los sensores al habla
Tener sensores mejorados es una cosa, pero ¿cómo ayuda eso a un paciente con ELA que no puede codificar un sonido, y mucho menos una oración? La idea es que los sensores registren neuronas ubicadas en el cerebro intención Emitir un determinado sonido, incluso si los más de 100 músculos de los labios, la lengua, la mandíbula y la laringe no pueden producir ese sonido. Entonces, antes de pronunciar el sonido /g/, como en la palabra “puerta”, su cerebro activará ciertas neuronas. En una persona sana, estas neuronas crearán un efecto dominó para coordinar la actividad del habla. En la esclerosis lateral amiotrófica las fichas de dominó no caen correctamente.
Curiosamente, lo que el estudio encontró fue que para algunos sonidos, como el sonido /g/, su decodificador cerebral era correcto el 84% de las veces. Pero no todo el audio es igual y algunos son más difíciles de decodificar de esta manera que otros. Es más difícil con fonemas similares como /p/ y /b/. En general, el dispositivo tuvo una tasa de éxito del 40% en la decodificación de neuronas en sonido. Esto significa que para el 40% de los votos, ahora podemos saber lo que alguien está tratando de decir sólo con su cerebro.
¿El camino a la telepatía?
El cuarenta por ciento no parece mucho. Esto todavía significa que para la mayoría de los sonidos y la gran mayoría de oraciones posibles, todavía no podemos decodificar lo que el paciente intenta decir únicamente a partir de señales cerebrales. Pero él Él es Genial en comparación con lo que teníamos antes. Los esfuerzos anteriores de convertir el cerebro en voz a veces podían tardar días en configurarse, calibrarse y hacerlo funcionar correctamente. Como dijo la Universidad de Duke: «Los logros técnicos similares a la conversión de cerebro a voz requieren horas o días de datos para aprovecharlos. Sin embargo, el algoritmo de decodificación de voz que utilizó Duraivel funcionó con sólo 90 segundos de datos hablados de una prueba de 15 minutos».
Como suele ocurrir, todavía estamos lejos del mundo de ciencia ficción de la comunicación telepática. Los sistemas de cerebro a voz todavía tienen tres problemas principales: son caros, propensos a errores y lentos. Pero lo que está claro es el camino. con 2,4 millones de dólares Gracias a una subvención de los Institutos Nacionales de Salud y al renovado interés en la tecnología, estamos un paso más cerca de la conectividad cerebral que hace un año.
En muchos aspectos, este estudio y esta tecnología sólo fueron posibles gracias a los rápidos avances en la tecnología de sensores. Pueden utilizar el doble de sensores para ser más específicos en sus estudios. Si la tecnología aumenta drásticamente, también lo harán los medicamentos que dependen de ella.
More Stories
El jefe de la Agencia Espacial de EE.UU. quiere hablar con China sobre la basura espacial
Búsqueda de gemas: caracterización de seis planetas gigantes que orbitan enanas frías
La Administración Federal de Aviación de EE. UU. ha puesto en tierra los cohetes Falcon 9 de SpaceX en espera de una investigación sobre un raro accidente de aterrizaje frente a la costa.