Saltar al contenido
Deberes escolares » Charlas educativas » No le teman a la superinteligente IA – Charla TED@IBM

No le teman a la superinteligente IA – Charla TED@IBM

Charla «No le teman a la superinteligente IA» de TED@IBM en español.

La nueva tecnología genera nuevas ansiedades, dice el científico y filósofo Grady Booch, pero no hay por qué temerle a la poderosa e insensible IA. Booch disipa nuestros peores miedos (inducidos por la sci-fi) acerca de las computadoras superinteligentes explicando cómo enseñarles, más no programarlas, para compartir nuestros valores. En lugar de preocuparnos acerca de una improbable amenaza existencial, nos incita a pensar cómo la inteligencia artificial mejorará la vida humana.

  • Autor/a de la charla: Grady Booch
  • Fecha de grabación: 2016-11-15
  • Fecha de publicación: 2017-02-17
  • Duración de «No le teman a la superinteligente IA»: 620 segundos

 

Traducción de «No le teman a la superinteligente IA» en español.

Cuando era niño, era un nerd por excelencia.

Creo que algunos de Uds.

también.


(Risas)
Y Ud.

señor, el que se rio más fuerte, probablemente aún lo sea.


(Risas)
Crecí en un pueblo pequeño en los llanos del norte de Tejas, hijo de un comisario, que fue hijo de un pastor.

Meterse en problemas no era una opción.

Así es que comencé a leer libros de cálculo por diversión.


(Risas)
Uds.

también lo hicieron.

Eso me llevó a crear un láser, una computadora y modelos de cohetes, y eso me llevó a hacer combustible para cohetes en mi habitación.

En términos científicos, esta es una muy mala idea.


(Risas)
Por esos días se estrenó «2001: Una Odisea en el Espacio» de Stanley Kubrick, y mi vida cambió para siempre.

Me encantó todo de esa película, especialmente el HAL 9000.

HAL era un computador sensible diseñado para guiar la aeronave Discovery de la Tierra a Júpiter.

HAL además era imperfecto, porque eligió el valor de la misión sobre la vida humana.

HAL era un personaje ficticio, y sin embargo habla sobre nuestros temores, nuestros temores a ser subyugados por alguna insensible inteligencia artificial indiferente a nuestra humanidad.

Creo que esos temores son infundados.

De hecho, estamos en un tiempo notable en la historia de la humanidad, donde, motivados por la negación a aceptar los límites del cuerpo y mente, construimos máquinas de complejidad y gracia exquisita y hermosa que expanden la experiencia humana más allá de nuestra imaginación.

Tras una carrera que me llevó de la Academia de la Fuerza Aérea a comandante de estación espacial, me volví ingeniero de sistemas, y recientemente me encontré con un problema de ingeniería relacionado con la misión de la NASA a Marte.

En vuelos espaciales a la Luna, dependemos del control de la misión en Houston para vigilar todos los aspectos de un vuelo.

Sin embargo, Marte está 200 veces más lejos, como resultado toma en promedio 13 minutos para que una señal viaje de la Tierra a Marte.

Si hay algún percance, no hay suficiente tiempo.

Una solución razonable de ingeniería nos incita a instalar el control de la misión dentro de las paredes de la aeronave Orión.

Otra idea fascinante en el perfil de la misión es colocar robots humanoides en la superficie de Marte antes de que los humanos mismos lleguen, primero para construir instalaciones y luego para servir como colaboradores en el equipo científico.

Al mirar esto desde la ingeniería, me quedó claro que lo que necesitaba diseñar era una inteligencia artificial muy lista, colaborativa y social.

En otras palabras, necesitaba construir algo muy parecido a HAL pero sin las tendencias homicidas.


(Risas)
Detengámonos un momento.

¿Es realmente posible construir inteligencia artificial así?

De hecho, sí lo es.

En muchas maneras, este es un problema difícil de la ingeniería con elementos de IA, no es un simple problema de IA que necesite diseñarse.

Parafraseando a Alan Turing, no me interesa construir una máquina sensible.

No voy a construir un HAL.

Todo lo que busco es un cerebro sencillo, algo que ofrezca una ilusión de inteligencia.

El arte y la ciencia de la computación ha pasado por mucho desde la aparición de HAL, e imagino que si su inventor Dr.

Chandra estuviera aquí hoy, tendría mucho que preguntarnos.

¿Es realmente posible tomar un sistema de millones y millones de dispositivos, para leer flujos de datos, para predecir fallas y actuar con antelación?

Sí.

¿Podemos construir sistemas que se comuniquen con humanos?

Sí.

¿Podemos construir sistemas que reconozcan objetos, emociones, que se emocionen, jueguen e incluso que lean los labios?

Sí.

¿Podemos construir un sistema que fije objetivos, que lleve a cabo planes contra esos objetivos y siga aprendiendo más?

Sí.

¿Podemos construir sistemas que piensen por sí mismos?

Estamos aprendiendo a hacerlo.

¿Podemos construir sistemas con fundamentos éticos y morales?

Debemos aprender cómo hacerlo.

Aceptemos por un momento que es posible construir tal inteligencia artificial para estas misiones y otras.

La siguiente pregunta que deben formularse es,

¿deberíamos temerle?

Toda nueva tecnología trae consigo algunos temores.

Cuando vimos autos por primera vez, la gente temía que viéramos la destrucción de la familia.

Cuando se inventaron los teléfonos, la gente temía que arruinara la conversación civilizada.

En algún momento, vimos a la palabra escrita aparecer en todos lados, la gente creyó que perderíamos la habilidad de memorizar.

Todo esto es cierto hasta cierto grado, pero estas tecnologías también nos dieron cosas que expandieron la experiencia humana de manera profunda.

Así que vayamos más lejos.

No temo la creación de una IA así, porque finalmente encarnará algunos de nuestros valores.

Consideren lo siguiente: construir un sistema cognitivo es muy distinto a construir uno tradicional intensivo en software como en el pasado.

No los programamos.

Les enseñamos.

Para enseñarle a un sistema a reconocer flores, le muestro miles de flores que me gustan.

Para enseñarle a jugar…

Bueno, lo haría y Uds.

también.

Me gustan las flores.

Para enseñarle a un sistema a jugar un juego como Go, lo pondría a jugar miles de juegos de Go, y en el proceso también le enseñaría a discernir un buen juego de uno malo.

Si quiero crear un asistente legal con inteligencia artificial, le enseñaría algo del corpus legislativo combinando al mismo tiempo el sentido de la piedad y la justicia que también son parte de la ley.

En términos científicos, lo llamamos verdad en tierra firme, este es el punto importante: al producir estas máquinas, les estamos enseñando también el sentido de nuestros valores.

Para este fin, confío en la inteligencia artificial tanto, si no más, que en un humano bien entrenado.

Quizá se pregunten

¿qué hay de los agentes rebeldes, algunas organizaciones sólidas no gubernamentales?

No le temo a la inteligencia artificial en manos de un lobo solitario.

Claramente no podemos protegernos de todo tipo de violencia, en realidad, un sistema así requiere entrenamiento importante y sutil más allá de los recursos de un individuo.

Además, se trata de algo más que inyectar un virus en el internet global, donde al presionar un botón, se esparce a millones de lugares y las laptops comienzan a estallar en pedazos.

Este tipo de sustancias son más grandes y se les ve venir.

¿Temo que ese tipo de inteligencia artificial amenace a la humanidad?

Si miran películas como «Matrix», «Metrópolis», «Terminator» y shows como «Westworld», todos hablan de este miedo.

El libro «Superinteligencia» del filósofo Nick Bostrom, habla de este tema y opina que una superinteligencia no solo puede ser peligrosa, sino que podría representar una amenaza existencial para la humanidad.

El argumento fundamental del Dr.

Bostrom es que dichos sistemas finalmente tendrán una necesidad insaciable de información que quizá aprendan cómo aprender y finalmente descubran que pueden tener objetivos contrarios a las necesidades humanas.

El Dr.

Bostrom tiene varios seguidores.

Gente como Elon Musk y Stephen Hawking lo apoyan.

Con todo respeto a estas mentes brillantes, creo que están completamente equivocados.

Hay muchas partes del argumento del Dr.

Bostrom que analizar, y no tengo tiempo para hacerlo, pero brevemente, piensen esto: el superconocimiento es muy distinto al superhacer.

HAL era una amenaza para la flota del Discovery en la medida en que controlaba todos los aspectos del Discovery.

Se necesitaría una superinteligencia.

Y un dominio total de nuestro mundo.

Skynet de la película «Terminator» tenía una superinteligencia que controlaba la voluntad humana, y controlaba cada dispositivo en todos los rincones del mundo.

Siendo prácticos, eso no pasará.

No estamos construyendo IAs que controlen el clima, que controlen las mareas, que nos controlen a nosotros, caprichosos y caóticos humanos.

Además, si tal inteligencia artificial existiera, tendría que competir contra las economías del hombre, y por tanto competir por recursos contra nosotros.

Y al final —no le digan a Siri— siempre podremos desconectarlos.


(Risas)
Estamos en una increíble aventura de coevolución con nuestras máquinas.

Los humanos que somos hoy no son los humanos que seremos.

Preocuparse ahorita del ascenso de una superinteligencia es una distracción peligrosa en muchos sentidos porque el ascenso de la computación trajo consigo muchos problemas humanos y sociales de los que debemos ocuparnos ahora.

¿Cómo organizar a la sociedad cuando la necesidad de trabajo humano decrece?

¿Cómo llevar conocimiento y educación a través del mundo respetando nuestras diferencias?

¿Cómo expandir y mejorar la vida con la atención médica cognitiva?

¿Cómo usar la computación para ayudarnos a alcanzar las estrellas?

Eso es lo emocionante.

Las oportunidades para usar la computación y fomentar la experiencia humana están a nuestro alcance, aquí y ahora, y apenas hemos comenzado.

Muchas gracias.


(Aplausos)

https://www.ted.com/talks/grady_booch_don_t_fear_superintelligent_ai/

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *