Contenidos
Charla «Mirar hacia el futuro a través de un visor de realidad virtual» de TED2016 en español.
¿Qué pasaría si la tecnología pudiera conectarnos mejor al entorno que nos rodea en lugar de alejarnos del mundo real? Con Meta 2, un visor de realidad virtual que nos permite ver, tomar y mover hologramas como si fueran objetos reales, Meron Gribetz espera aumentar nuestros sentidos en lugar de restringirlos. Únete a Gribetz que sube al escenario TED para mostrar por primera vez la realidad virtual a través de Meta 2 (durante una sesión de preguntas y respuestas con Chris Anderson, curador de TED).
- Autor/a de la charla: Meron Gribetz
- Fecha de grabación: 2016-02-17
- Fecha de publicación: 2016-03-18
- Duración de «Mirar hacia el futuro a través de un visor de realidad virtual»: 654 segundos
Traducción de «Mirar hacia el futuro a través de un visor de realidad virtual» en español.
Las computadoras de hoy son tan sorprendentes que no nos damos cuenta de lo horribles que son realmente.
Hoy me gustaría hablarles de este problema, y de cómo podemos solucionarlo con la ayuda de la neurociencia.
Para empezar, les llevaré de vuelta a una helada noche en Harlem en 2011 que me marcó profundamente.
Me encontraba en el típico bar cerca de la Universidad de Columbia, donde me gradué en ciencias de la computación y neurociencia, disfrutando de una conversación con un compañero sobre el potencial de la hologramas de reemplazar algún día las computadoras.
Y justo cuando llegamos a la mejor parte de la conversación, por supuesto, le llaman por teléfono.
Se lo acercó, lo miró y empezó a escribir.
Se esforzó por volver a mirarme y me dice: «Sigue.
Te escucho».
Pero, por supuesto, sus ojos distraídos delataban que la conversación terminó.
Mientras tanto, al otro lado de la barra, vi a otro estudiante con su teléfono, esta vez mostrándolo a un grupo.
Eran fotos en Instagram que hicieron que estos jóvenes se riesen en voz alta.
Y esa dicotomía entre mi malestar y lo felices que eran ellos con la misma tecnología, realmente me hizo pensar.
Y cuanto más pensaba en ello, más me daba cuenta de que obviamente, lo malo no era la información digital sino más bien el sistema de presentación que me separaba de mi amigo pero conectaba a esos jóvenes.
Ya ven, ellos estaban reunidos en torno a algo, igual que nuestros antepasados que desarrollaron sus habilidades sociales contando historias alrededor de un fuego.
Y eso es exactamente lo que creo que deben hacer las herramientas, ser una extensión de nuestro cuerpo.
Y creo que las computadoras de hoy están haciendo todo lo contrario.
Sea que envíen un correo a su esposa sea que compongan una sinfonía o simplemente consuelen a un amigo lo están haciendo casi de la misma manera, encorvados sobre estos rectángulos, tocando botones y menús y más rectángulos.
Y creo que no es la manera adecuada, creo que podemos empezar a usar una máquina mucho más natural.
Debemos usar máquinas que traigan nuestro trabajo de vuelta al mundo.
Debemos usar máquinas que se basan en los principios de la neurociencia para aumentar nuestros sentidos en lugar de restringirlos.
Ahora bien, da la casualidad de que tengo esa máquina.
Se llama Meta 2.
Vamos a probarla.
En frente puedo ver al público y también mis propias manos.
Y en tres, dos, uno, veremos aparecer un holograma, un holograma muy realista que aparece ante mí, expuesto en las gafas que llevo en la cabeza ahora mismo.
Por supuesto, podría ser cualquier cosa que compramos o estudiamos y uso la manos para moverlo suavemente con precisión.
Y creo que Iron Man estaría orgulloso.
Volveremos a esto más adelante.
(Aplausos)
Ahora bien, si están pensando como yo, su mente ya está imaginando las posibilidades que ofrece este tipo de tecnología, así que veamos algunas.
Mi madre es arquitecta, así que lo primero que pensé fue diseñar un edificio en 3D en lugar de tener que usar estos planos en 2D.
De hecho está interactuando con algunos proyectos ahora mismo y está seleccionando una decoración interior.
Todo esto se filmó con una cámara GoPro a través de nuestras gafas.
Este siguiente uso es algo muy personal, el proyecto del cerebro transparente del Prof.
Adam Gazzaley, desarrollado en la UCSF.
Como estudiante de neurociencia, siempre tuve la fantasía de aprender y memorizar las complejas estructuras cerebrales con una máquina real, para tocar y jugar con las diversas estructuras cerebrales.
Lo que están viendo se llama realidad aumentada, pero, para mí, es parte de una historia mucho más importante: la historia de cómo podemos empezar a transformar los dispositivos digitales en una extensión del cuerpo y no al revés.
Y bien, creo que en los próximos años, la humanidad se enfrentará a un cambio.
Empezaremos a solapar toda una gama de información digital en el mundo real.
Imaginen por un momento qué podría significar esto para los narradores, pintores, neurocirujanos, decoradores, y quizá para quienes estamos aquí hoy.
Creo que como comunidad tenemos que tratar de hacer un esfuerzo e imaginar cómo podemos crear esta nueva realidad para que enriquezca la experiencia humana, en lugar de hacer que nuestra realidad se parezca más bien a un juego o la saturemos con información digital.
Esto es lo que me apasiona.
Ahora quiero contarles un pequeño secreto.
En unos cinco años —este no es el dispositivo más pequeño— todo esto se verá reducido a una tira por encima de los ojos que proyectará los hologramas.
Y al igual que no nos importa el teléfono que compramos en términos del hardware —lo compramos por el sistema operativo— como neurólogo siempre soñé con crear un sistema operativo mental.
Y es muy, muy importante que lo hagamos bien, ya que podríamos vivir dentro de estas cosas al menos del mismo modo que convivimos con la interfaz gráfica de Windows.
Y yo no sé Uds., pero a mí me asusta vivir dentro de Windows.
(Risas)
Para aislar la única interfaz más intuitiva de todas las posibles usamos la neurociencia para guiarnos en el diseño en lugar de dejar que lo decida un grupo de diseñadores en una sala de reuniones.
Y nos basamos en el principio llamado la «vía neuronal de menor resistencia».
A cada paso, estamos conectando el iOS del cerebro con nuestro cerebro y, por primera vez, tal como lo dicta el cerebro.
En otras palabras, tratamos de crear un equipo cuyo uso no necesite ningún aprendizaje.
Estamos construyendo un sistema que siempre supieron usar.
Aquí están las primeras tres directrices que empleamos para diseñar, para estrenar una experiencia completamente nueva para el usuario.
Primera, Uds.
son el sistema operativo.
Los sistemas de archivado tradicionales son complejos y abstractos, y requieren de pasos intermedios para su decodificación.
Es una forma de ir en contra de la vía neuronal de menor resistencia.
Mientras tanto, en la realidad virtual, pueden por supuesto insertar su panel holográfico de TED aquí, y su correo electrónico holográfico en el otro lado de la mesa, de modo que su memoria espacial pueda recuperarlos sin problema.
Pueden también guardar el holograma del auto Tesla que desean comprar o el modelo que mis abogados me dijeron que pusiera antes de la charla.
(Risas)
Perfecto.
Y su cerebro sabe exactamente cómo recuperarlos.
La segunda pauta de la interfaz se llama «tocar para ver».
¿Qué hacen los bebés cuando ven algo que les llama la atención?
Tratan de alcanzarlo y tocarlo.
Y así es exactamente cómo debería funcionar la máquina natural también.
Resulta que el sistema visual es considerablemente estimulado por el sentido de la propiocepción, la sensación que nuestro cuerpo tiene en el espacio.
Por lo tanto, al tocar nuestro trabajo, no nos limitaremos a manejarlo mejor, sino también a entenderlo en más profundidad.
Por lo tanto, tocar para ver.
Pero no basta con solo experimentar cosas nosotros mismos.
Somos primates sociales por naturaleza.
Y esto me lleva a la tercera directriz, del fuego holográfico de nuestra primera historia.
Nuestro subsistema de neuronas espejo sugiere que podemos interactuar entre nosotros y con nuestro trabajo mucho mejor si podemos observar la cara y las manos de nuestro interlocutor en 3D.
Así que si miramos el video en la pantalla pueden ver dos usuarios de Meta 2 usar el mismo holograma, que hacen contacto visual, conectados con esto, en vez de distraerse con dispositivos externos.
Sigamos y volvamos a probarlo pensando en la neurociencia.
Una vez más, nuestra interfaz preferida, el sistema operativo de la mente.
Iré un paso más allá y tomaré este par de lentes para dejarlo aquí en la mesa.
Sigo con Uds., estoy presente en el momento, estamos conectados.
Mi memoria espacial entra en acción y puedo seguir adelante y agarrarlo, y traerlo de vuelta aquí, mientras recuerdo que yo soy el sistema operativo.
Y ahora mi propiocepción está trabajando, y puedo seguir y descomponer estas lentes en mil partes y tocar el mismo sensor que está escaneando mi mano.
Pero no es suficiente ver las cosas solo, por lo que en un segundo, mi socio Ray hará una llamada en 3D.
¿Ray?
(Timbre) Hola Ray,
¿cómo te va?
Chicos, puedo verlo delante de mí en 3D.
Y es foto-realista.
(Aplausos)
Gracias.
Mi subsistema de neuronas espejo sugiere que esto va a reemplazar a los teléfonos muy pronto.
Ray,
¿cómo te va?
Ray: Bien.
Estamos en directo hoy.
(Aplausos)
MG: Ray,
¿no le haces un regalo al público?
¿El cerebro holográfico que vimos en el video anterior?
Chicos, esta tecnología no solo cambiará a los teléfonos sino también nuestra forma de colaborar.
Muchas gracias.
Gracias, Ray.
Ray: De nada.
(Aplausos)
MG: Así que amigos, este es el mensaje que descubrí en aquel bar en 2011: El futuro de la informática no está encerrado detrás de estas pantallas.
sino aquí, dentro de nosotros.
(Aplausos)
Así que si hay una idea que quiero difundir hoy aquí, es que la máquina natural no es una ficción del futuro, está aquí en 2016.
Es por eso que cientos de nosotros en Meta, incluyendo el personal administrativo, los ejecutivos, los diseñadores, los ingenieros, antes de TED 2017, tiraremos los monitores externos y los reemplazaremos por máquinas mucho más reales y naturales.
Muchas gracias.
(Aplausos)
Muchas gracias, de verdad.
Gracias, chicos.
Chris Anderson: Aclárame una cosa, ya que ha habido unas cuantas demostraciones de realidad virtual en el último año, más o menos por ahí.
Y a veces hay un debate entre tecnólogos sobre si realmente vemos cosas reales en la pantalla…
Está el tema del campo de visión, ya que la tecnología muestra una vista mejorada de lo que en realidad se vería usando las gafas.
¿Vimos el modelo real antes?
MG: Por supuesto.
No solo eso, tomamos medidas adicionales para filmar con una GoPro a través de la lente real en los diversos videos que acaban de ver.
Queríamos tratar de simular la experiencia del mundo que estamos viendo realmente a través de estas gafas y sin cortar nada.
CA: Muchas gracias por la demostración.
MG: Muchas gracias, muy agradecido.
https://www.ted.com/talks/meron_gribetz_a_glimpse_of_the_future_through_an_augmented_reality_headset/