Gente de la Safor

Bienvenidos a Spain News Today.

El equipo de UEA lee la mente para comprender el uso de herramientas humanas

imagen: El equipo utilizó un escáner de resonancia magnética para recopilar datos de imágenes cerebrales mientras los participantes interactuaban con los objetos 3D. Utilizaron estos datos para estudiar las partes del cerebro utilizadas … Mostrar Más

Crédito: Universidad de East Anglia

Investigadores de la Universidad de East Anglia han hecho un descubrimiento asombroso sobre cómo nuestros cerebros controlan nuestras manos.

Utilizaron datos de resonancia magnética para estudiar las partes del cerebro que se utilizan al manipular herramientas, como cuchillos.

Leyeron la señal de áreas específicas del cerebro e intentaron distinguir cuándo los participantes manejaron las herramientas de manera adecuada para su uso.

Los seres humanos han utilizado herramientas durante millones de años, pero esta investigación es la primera en demostrar que acciones como sostener un cuchillo con su mango para cortar están representadas por regiones del cerebro que también representan imágenes de manos humanas y son nuestra principal “ herramienta ”. ‘para interactuar con el mundo.

La investigación podría allanar el camino para el desarrollo de la próxima generación de prótesis: prótesis que van al centro de control del cerebro y ayudan a rehabilitar a las personas que han perdido la función de sus extremidades debido a una lesión cerebral.

El estudio fue dirigido por UEA y realizado en Norfolk University Hospital y Norwich.

La investigadora principal, la Dra.Stephanie Rossett, de la Facultad de Psicología de la Universidad de East Anglia, dijo: “La aparición de dispositivos portátiles marca el comienzo de una gran desconexión entre los humanos y nuestros parientes primates más cercanos, y es una característica definitoria de nuestra especie. . Eso evolucionó específicamente en humanos “.

“Sabíamos que ver imágenes de herramientas activa un área diferente del cerebro cuando vemos otro tipo de cosas, como una silla.

“Hasta ahora, se suponía que el cerebro separa la información visual de esta manera para mejorar el procesamiento de las acciones relacionadas con las herramientas. Pero no se entendía bien cómo el cerebro humano controla nuestras manos para comprender correctamente los objetos 3D, como las herramientas”.

“Queríamos probar si el cerebro humano procesa automáticamente los objetos 3D en términos de cómo los entendemos para su uso. Y en particular, queríamos ver si podíamos usar señales de partes específicas del cerebro para distinguir si las personas manejan las herramientas correctamente, por ejemplo, sujetar el cuchillo por el mango en lugar de la hoja “.

El equipo utilizó un escáner de resonancia magnética para recopilar datos de imágenes cerebrales mientras los participantes interactuaban con los objetos 3D.

El Dr. Rossett dijo: “Esto fue realmente un desafío porque el espacio dentro del escáner es muy pequeño y los participantes deben permanecer realmente quietos”.

Así que usamos una configuración única de ‘movimiento real’ para introducir herramientas 3D y otros elementos.

“ Los participantes yacían en la oscuridad, en una cama especialmente diseñada con una mesa giratoria sujeta por encima de la cintura, para que pudiéramos mostrarles objetos en 3D a los que pudieran agarrarse.

“Diseñamos e imprimimos en 3D utensilios de cocina cotidianos a partir de materiales no magnéticos para que sean seguros en las imágenes de resonancia magnética, como un cuchillo de plástico, un cortador de pizza y una cuchara, así como otro conjunto de varillas impresas en 3D para representar elementos que no eran herramientas. los usó como controles “.

El Dr. Ethan Knights, que era estudiante de doctorado con el Dr. Rossett, coordinó la recopilación de datos y el escaneo cerebral de 20 voluntarios en Norfolk y Norwich University Hospital. En la primera sesión, se pidió a los participantes que entendieran correcta o incorrectamente la herramienta 3D y las cintas 3D utilizando una configuración de “acción real” hecha a medida.

Los mismos participantes regresaron al escáner para una segunda sesión en la que simplemente observaron imágenes de las herramientas y las manos.

El Dr. Fraser Smith, de la Facultad de Psicología de la Universidad de East Anglia, dijo: “Estudiamos la actividad cerebral cuando los participantes vieron imágenes de herramientas y manos para identificar las partes del cerebro donde se representa la imagen de la mano del cerebro.

“Luego utilizamos la última tecnología de aprendizaje automático para ver si podíamos predecir si las personas realmente habían agarrado la herramienta a través de su mango. Esto es realmente importante porque saber no agarrar un objeto, como un cuchillo, a través de su hoja, es crucial. al uso de herramientas exitosas.

El Dr. Rossett dijo: “Contrariamente a lo que piensan la mayoría de los científicos, pudimos predecir si el instrumento se absorbió correctamente a partir de las señales de las áreas del cerebro que responden al ver imágenes de las manos y no de las áreas visuales que responden a una escena. Imágenes de las herramientas “.

“ Es importante destacar que las señales de las áreas visuales de la mano solo se pueden usar para predecir los movimientos de la mano con las herramientas, pero no se pueden predecir acciones idénticas con los elementos de la barra de control 3D.

Esto indica que las áreas de la mano visual se ajustaron específicamente para trabajar con herramientas.

“Nuestro descubrimiento cambia nuestra comprensión básica de cómo el cerebro controla nuestras manos y podría tener importantes implicaciones para la salud y la sociedad.

“Por ejemplo, puede ayudar a desarrollar mejores dispositivos o rehabilitar a las personas que han perdido la función de las extremidades debido a una lesión cerebral. Incluso puede permitir que las personas sin extremidades controlen sus prótesis con la mente”.

“El potencial de las interfaces y las prótesis impulsadas por el cerebro es muy emocionante”, añadió.

“Las regiones visuales selectivas comprenden manualmente cómo se perciben las herramientas 3D: decodificación del cerebro durante acciones reales” se publicó en La Revista de Neurociencia El 10 de mayo de 2021. El estudio fue financiado por la Fundación BIAL.

###

Descargo de responsabilidad: AAAS y EurekAlert! ¡No es responsable de la exactitud de los boletines enviados a EurekAlert! A través de instituciones colaboradoras o para utilizar cualquier información a través del sistema EurekAlert.

READ  El rover Curiosity de la NASA captura extrañas nubes iridiscentes en Marte