Saltar al contenido
Deberes escolares » Charlas educativas » Miguel Nicolelis: Un mono que controla un robot con sus pensamientos. De verdad. – Charla TEDMED 2012

Miguel Nicolelis: Un mono que controla un robot con sus pensamientos. De verdad. – Charla TEDMED 2012

Charla «Miguel Nicolelis: Un mono que controla un robot con sus pensamientos. De verdad.» de TEDMED 2012 en español.

¿Podemos utilizar nuestro cerebro para controlar directamente máquinas, sin necesidad de un cuerpo como intermediario? Miguel Nicolelis habla de un experimento sorprendente en el que un mono inteligente en Estados Unidos aprende a controlar un avatar de mono y luego un robot en Japón, únicamente con sus pensamientos. La investigación tiene grandes implicaciones para personas cuadripléjicas… y tal vez para todos nosotros. (Filmado en TEDMED 2012).

  • Autor/a de la charla: Miguel Nicolelis
  • Fecha de grabación: 2012-04-11
  • Fecha de publicación: 2013-02-18
  • Duración de «Miguel Nicolelis: Un mono que controla un robot con sus pensamientos. De verdad.»: 895 segundos

 

Traducción de «Miguel Nicolelis: Un mono que controla un robot con sus pensamientos. De verdad.» en español.

El tipo de neurociencia que hacemos mis colegas y yo es casi como de meteorólogo.

Estamos siempre persiguiendo tormentas.

Queremos ver y medir tormentas; tormentas de ideas, claro está.

Todos hablamos de tormentas de ideas en nuestra vida cotidiana, pero rara vez vemos o escuchamos una.

Por eso a mi me gusta comenzar siempre estas charlas presentando una.

La primera vez que registramos más de una neurona, 100 células cerebrales, simultáneamente, pudimos medir las chispas eléctricas de 100 células del mismo animal.

Esta es la primera imagen que conseguimos, los primeros 10 segundos de esta grabación.

Tomamos un pequeño fragmento de un pensamiento, y lo pudimos ver al frente.

Siempre les digo a los estudiantes que también podríamos considerar a los neurocientíficos como una especie de astrónomos, porque estamos tratando con un sistema que solo es comparable, en términos del número de células, con el número de galaxias en el universo.

Y aquí estamos hace 10 años, grabando apenas un centenar de los miles de millones de neuronas.

Ahora lo hacemos con un millar.

Y esperamos entender algo fundamental sobre la naturaleza humana.

Porque, si no lo sabían, todo lo que utilizamos para definir la naturaleza humana proviene de estas tormentas que ruedan por las colinas y valles de nuestro cerebro y definen nuestros recuerdos, nuestras creencias, nuestros sentimientos, nuestros planes para el futuro.

Todo lo que hacemos, lo que alguna vez ha hecho, hace o hará todo ser humano, requiere del trabajo de conglomerados de neuronas que producen este tipo de tormentas.

Y el sonido de una tormenta de ideas, si no han escuchado uno, es algo parecido a esto.

Se puede poner más fuerte si quieren.

Mi hijo llama a esto «haciendo palomitas de maiz mientras se escucha una emisora AM mal sintonizada».

Esto es un cerebro.

Esto es lo que sucede cuando se enrutan estas tormentas eléctricas a un altavoz y se escucha un centenar de neuronas disparando.

Tu cerebro sonará así; mi cerebro, cualquier cerebro.

Y lo que queremos hacer como neurocientíficos actualmente es, en efecto, escuchar estas sinfonías del cerebro, y tratar de extraer de ellas los mensajes que llevan.

En particular, hace unos 12 años, creamos lo que llamamos interfaz cerebro-máquina.

Aquí se ve un esquema que describe cómo funciona.

La idea es tener unos sensores que escuchan estas tormentas, estos disparos eléctricos, y ver si se puede, en el mismo tiempo que tarda esta tormenta en dejar el cerebro y llegar a las piernas o los brazos de un animal, cerca de medio segundo, ver si podemos leer estas señales, extractar el mensaje motor que está inmerso en ellas, traducirlo a comandos digitales y enviarlo a un dispositivo artificial que reproduzca el impulso motor voluntario de ese cerebro en tiempo real.

Ver si podemos medir qué tan bien podemos traducir ese mensaje comparado con la forma como lo hace el cuerpo.

Y ver si realmente podemos dar retroalimentación; señales sensoriales que regresen de este actor robótico, mecánico, computacional, ahora bajo el control del cerebro, de regreso al cerebro, y ver cómo el cerebro maneja esto de recibir mensajes de una máquina artificial.

Eso es exactamente lo que hicimos hace 10 años.

Empezamos con una mona llamada Aurora que se convirtió en una de las superestrellas en este campo.

A Aurora le gustaban los videojuegos.

Como se puede ver aquí, le gustaba usar un comando, como a cualquiera de nosotros, de nuestros hijos, para este juego.

Y como buena primate, incluso intenta hacer trampa para obtener la respuesta correcta.

Incluso antes de que aparezca el objetivo que ella debe cazar con el cursor que está controlando con este comando, Aurora trata de dar con el objetivo, adivinando.

Y si ella está haciendo eso, es porque cada vez que caza el objetivo con el pequeño cursor, consigue una gota de jugo de naranja brasileño.

Y puedo decirles que cualquier mono hará lo que sea, si consigue una pequeña gota de jugo de naranja brasileño a cambio.

A decir verdad, cualquier primate lo hará.

Piensen en eso.

Bien, mientras Aurora estaba jugando este juego, como vieron, haciendo mil ensayos al día consiguiendo un 97 % de aciertos y 350 ml de jugo de naranja, estábamos grabando las sesiones de tormenta de ideas que se producían en su cabeza y enviándolas a un brazo robótico que estaba aprendiendo a reproducir los movimientos que hacía Aurora.

Porque la idea era hacer realidad esta interfaz cerebro-máquina y tener a Aurora jugando solo con el pensamiento, sin la interferencia de su cuerpo.

Sus tormentas cerebrales controlarían un brazo que movería el cursor y cazaría el objetivo.

Y para nuestro asombro, eso fue exactamente lo que hizo Aurora.

Ella jugaba sin mover su cuerpo.

Cada trayectoria del cursor que están viendo, corresponde a la primera vez que ella lo logró.

Esta es exactamente la primera vez en que una orden del cerebro fue liberada de los dominios físicos del cuerpo de un primate y pudo actuar afuera, en el mundo exterior, simplemente controlando un dispositivo artificial.

Y Aurora se mantuvo jugando, tratando de encontrar el pequeño objetivo y consiguiendo el jugo de naranja que quería, que anhelaba.

Lo hizo porque ella, en ese momento, había adquirido un nuevo brazo.

El brazo robótico que ven moviéndose aquí, 30 días después del primer video que les mostré, está bajo el control del cerebro de Aurora, y ella mueve el cursor para alcanzar el objetivo.

Aurora ahora sabe que puede jugar con este brazo robótico.

Pero no ha perdido la capacidad de utilizar sus brazos biológicos para hacer lo que le agrada.

Puede rascarse la espalda, puede rascar a uno de nosotros, puede jugar otro juego.

Para todos los fines y propósitos, el cerebro de Aurora ha incorporado ese dispositivo artificial como una extensión de su cuerpo.

La imagen de sí misma que ella tenía en su mente se ha ampliado con un brazo adicional.

Esto fue hace 10 años.

Demos un salto rápido adelante de 10 años.

El año pasado nos dimos cuenta que ni siquiera es necesario tener un dispositivo robótico.

Se puede simplemente crear un cuerpo computacional, un avatar, un avatar de mono.

Se lo puede usar bien sea para que los monos interactúen con él, o para entrenarlos para asumir la perspectiva de primera persona de ese avatar, en un mundo virtual, y usar su actividad cerebral para controlar los movimientos de brazos o piernas del avatar.

Y lo que hicimos básicamente fue entrenar a los animales para aprender a controlar esos avatares y explorar los objetos que aparecen en el mundo virtual.

Estos objetos son visualmente idénticos, pero cuando el avatar caza la superficie de estos objetos, mandan un mensaje eléctrico según la textura microtáctil del objeto que vuelve directamente al cerebro del mono, informándole lo que el avatar está tocando.

Y en solo 4 semanas, el cerebro aprende a procesar esta nueva sensación y adquiere una nueva vía sensorial, como un nuevo sentido.

El cerebro está efectivamente liberado ahora porque se le permite enviar comandos motores para mover el avatar y la retroalimentación que proviene del avatar es procesada directamente por el cerebro, sin interferencia de la piel.

Lo que ven aquí es el diseño de la tarea.

Van a ver un animal que, básicamente, toca estos 3 objetivos y que tiene que seleccionar uno, porque solo uno tiene recompensa, el deseado jugo de naranja.

Debe seleccionarlo por tacto, usando un brazo virtual, un brazo que no existe.

Y eso es exactamente lo que hacen.

Se trata de una liberación completa del cerebro de las restricciones físicas del cuerpo y del sistema motor, en una tarea perceptual.

El animal está controlando el avatar para tocar los objetivos.

Y siente la textura al recibir un mensaje eléctrico directamente en el cerebro.

El cerebro está decidiendo la textura asociada con la recompensa.

Las leyendas que se ven en la película no aparecen para el mono.

Y por cierto, de todas formas no sabe leer, Estan ahí solo para que ustedes sepan que el objetivo correcto está cambiando de posición.

Y aún así, ellos son capaces de encontrarlos por discriminación táctil, y son capaces de presionar y seleccionarlo.

Observamos los cerebros de estos animales y en el panel superior se puede ver la alineación de 125 células que muestran lo que sucede con la actividad del cerebro, las tormentas eléctricas de esa muestra de neuronas en el cerebro cuando el animal está usando un comando.

Esta es una imagen que todo neurofisiólogo reconoce.

La alineación básica muestra que estas células están codificadas para todas las direcciones posibles.

En la foto de abajo está lo que ocurre cuando el cuerpo se detiene y el animal comienza a controlar un dispositivo robótico o un avatar computacional.

No hemos acabado de reiniciar las computadoras, cuando la actividad cerebral cambia para empezar a representar esta nueva herramienta, como si fuera una parte más del cuerpo de ese primate.

El cerebro está asimilando eso también, tan rápido que casi no podemos medirlo.

Esto nos sugiere que nuestro sentido del yo no termina en la última capa del epitelio del cuerpo, sino que termina en la última capa de electrones de las herramientas que manejamos con el cerebro.

Nuestros violines, nuestros coches, nuestras bicicletas, los balones de fútbol, nuestra ropa, todos son asimilados por este sistema voraz, asombroso, dinámico, llamado cerebro.

¿Qué tan lejos podemos llevar esto? Verán.

En un experimento que hicimos hace unos años, lo llevamos al límite.

Pusimos un animal a correr en una caminadora en la Universidad de Duke, en la costa este de los EE.UU., produciendo las tormentas de ideas necesarias para moverse.

Teniamos un dispositivo robótico, un robot humanoide, en Kyoto, Japón, en los laboratorios ATR, que estaba esperando toda su vida ser controlado por un cerebro, un cerebro humano, o uno de primate.

Y sucedió que la actividad del cerebro del mono que generaba los movimientos fue transmitida a Japón e hizo que este robot caminara mientras tanto las imágenes de esta caminata fueron devueltas a Duke, para que el mono pudiera ver las piernas del robot caminar frente a el.

La recompensa, no era por lo que estaba haciendo su cuerpo, sino por cada paso correcto del robot controlado por su actividad cerebral al otro lado del planeta.

Lo divertido es que el viaje redondo alrededor de la Tierra tomó 20 milisegundos menos de lo que tarda esta tormenta en salir de la cabeza del mono, y llegar a sus músculos.

El mono estaba moviendo un robot 6 veces más grande que él en el otro extremo del planeta.

Este es uno de los experimentos en que ese robot pudo caminar autónomamente.

Este es CB1 cumpliendo su sueño en Japón bajo el control de la actividad del cerebro de un primate.

¿Hasta dónde vamos a llevar todo esto? ¿Qué vamos a hacer con toda esta investigación, además de estudiar las propiedades de este universo dinámico que tenemos entre oreja y oreja? Verán.

La idea es tomar todo este conocimiento y tecnología para tratar de resolver uno de los más graves problemas neurológicos del mundo.

Millones de personas han perdido la capacidad para traducir estas tormentas cerebrales en acción, en movimiento.

Aunque sus cerebros continúan produciendo esas tormentas y códigos para el movimiento, no pueden cruzar una barrera creada por una lesión en la médula espinal.

Así, nuestra idea es crear un puente, utilizar estas interfaces cerebro-máquina para leer esas señales, esas tormentas cerebrales de gran escala que contienen el deseo de moverse otra vez, sortear la lesión usando la microtécnica computacional y enviarlas a un nuevo cuerpo, un cuerpo entero llamado exoesqueleto, un traje entero robótico que se convertirá en el nuevo cuerpo de estos pacientes.

Pueden ver una imagen producida por un consorcio.

Se trata de un consorcio sin ánimo de lucro llamado Proyecto Volver a Caminar, que ha puesto a trabajar juntos a científicos de Europa, de aquí de los EE.UU.

y de Brasil para lograr efectivamente construir este nuevo cuerpo.

Un cuerpo que con los mismos mecanismos plásticos que permiten a Aurora y a otros monos utilizar estas herramientas a través de una interfaz cerebro-máquina, nos permita incorporar las herramientas que producimos y utilizamos en nuestra vida diaria.

Este mismo mecanismo, esperamos, permitirá que estos pacientes, no solo imaginen otra vez los movimientos que quieren hacer y que los traduzcan en movimientos para este nuevo cuerpo, sino que este sea asimilado como el nuevo cuerpo que el cerebro controla.

Me dijeron hace unos 10 años que esto nunca pasaría, que esto estaba cerca de lo imposible.

Solo diré que crecí en el sur de Brasil a mediados de los 60 viendo a unos locos diciéndo que irían a la luna.

Yo tenía 5 años, y no entendía por qué la NASA no contrataba al capitán Kirk y a Spock para hacer el trabajo; ¿no eran acaso bien eficientes? Pero fue ver esto de niño lo que me hizo creer, como mi abuela solía decirme, «imposible es solo lo posible que nadie se ha esforzado lo suficiente en realizar».

Me dijeron que es imposible hacer que alguien impedido camine.

Creo que voy a seguir el consejo de mi abuela.

Gracias.

(Aplausos)

https://www.ted.com/talks/miguel_nicolelis_a_monkey_that_controls_a_robot_with_its_thoughts_no_really/

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *