Centro Neuroingeniería Universidad Duke Estados UnidosNature
Dos monos entrenados en el Centro de Neuroingeniería de la Universidad de Duke, en Estados Unidos, han aprendido a utilizar la actividad cerebral para mover la mano de un avatar e identificar la textura de objetos virtuales. La investigación ha sido publicada en la revista 'Nature'.
"Algún día, en un futuro próximo, los pacientes tetrapléjicos se aprovecharán de esta tecnología, no sólo para mover los brazos y las manos y volver a caminar, sino también para sentir la textura de los objetos colocados en sus manos, o experimentar las características del terreno por donde pasean con la ayuda de un exoesqueleto robótico portátil", afirma el autor principal del estudio, el doctor Miguel Nicolelis, profesor de neurobiología en la Universidad de Duke y codirector del Centro Duke de Neuroingeniería.
Sin mover ninguna parte de su cuerpo, los monos utilizaron la actividad eléctrica de sus cerebros para dirigir las manos virtuales de un avatar en la superficie de objetos virtuales y, al entrar éstos en contacto, fueron capaces de diferenciar sus texturas.
Aunque los objetos virtuales empleados en este estudio eran visualmente idénticos, fueron diseñados para tener diferentes texturas artificiales, sólo detectables si los animales las exploraban con las manos virtuales -controladas directamente por la actividad eléctrica de su cerebro. La textura de los objetos virtuales se expresó como un patrón de señales eléctricas transmitidas al cerebro de los monos: tres patrones eléctricos diferentes correspondían a cada una de las tres texturas diferentes de los objetos.
Debido a que ninguna parte del cuerpo real del animal estuvo involucrada en la operación de esta interfaz cerebro-máquina-cerebro (BMBI, por sus siglas en inglés), estos experimentos sugieren que, en el futuro, los pacientes gravemente paralizados debido a una lesión en la médula espinal, podrán beneficiarse de esta tecnología, no sólo para recuperar la movilidad, sino también para contar con un sentido del tacto restaurado.
"Esta es la primera demostración de una interfaz cerebro-máquina-cerebro que establece una relación directa y bidireccional entre el cerebro y un cuerpo virtual", afirma Nicolelis, "en esta BMBI, el cuerpo virtual está controlado directamente por la actividad del cerebro del animal, mientras que su mano virtual genera información de retroalimentación táctil recogida a través de la microestimulación eléctrica directa de otra región de la corteza cerebral del mono. Esperamos que, en los próximos años, esta tecnología pueda ayudar a muchos pacientes que no pueden moverse, o que sufren de la privación de la sensación táctil, a tener una vida más autónoma."
El investigador añade que "esta es también la primera vez que hemos observado a un cerebro controlar un brazo virtual que explora objetos, mientras que el cerebro recibe simultáneamente señales de retroalimentación eléctrica que describen la textura de estos objetos 'tocados' por la recién adquirida mano virtual del primate.
Esta interacción entre el cerebro y un avatar virtual fue totalmente independiente del cuerpo real del animal, ya que los animales no movieron sus propios brazos y manos, ni emplearon su piel real para tocar los objetos e identificar su textura. Es casi como la creación de un nuevo canal sensorial a través del cual el cerebro puede reanudar el procesamiento de información que no puede llegar a más a través del cuerpo real y los nervios periféricos."
La actividad eléctrica combinada de poblaciones de 50 a 200 neuronas en la corteza motora del mono, controlaba la dirección del brazo avatar, mientras que miles de neuronas en la corteza primaria táctil recibían simultáneamente retroalimentación eléctrica continua a partir de la palma de la mano virtual, que permitía al mono discriminar entre objetos en función de su textura.
Miguel Nicolelis
MADRID, 6 Oct. (EUROPA PRESS) -
No hay comentarios:
Publicar un comentario