Saltar al contenido
Deberes escolares » Charlas educativas » El peligro de la IA es más extraño de lo que piensas – Charla TED2019

El peligro de la IA es más extraño de lo que piensas – Charla TED2019

Charla «El peligro de la IA es más extraño de lo que piensas» de TED2019 en español.

El peligro de la inteligencia artificial no es que se vaya a rebelar contra nosotros, sino que hará exactamente lo que le pidamos que haga, dice la investigadora de inteligencia artificial Janelle Shane. Compartiendo las extrañas, y ocasionalmente alarmantes travesuras de los algoritmos de IA mientras intentan resolver los problemas humanos —como crear nuevos sabores de helado, o reconocer coches en la carretera— Shane muestra por qué la IA no es aún comparable a los cerebros reales.

  • Autor/a de la charla: Janelle Shane
  • Fecha de grabación: 2019-04-15
  • Fecha de publicación: 2019-10-22
  • Duración de «El peligro de la IA es más extraño de lo que piensas»: 628 segundos

 

Traducción de «El peligro de la IA es más extraño de lo que piensas» en español.

La inteligencia artificial es conocida por transformar todo tipo de industrias.

Pensemos en los helados.

¿Qué alucinantes sabores nuevos podríamos generar con el poder de una inteligencia artificial avanzada?

Me junté con un grupo de programadores de la escuela secundaria Kealing para descubrir la respuesta a esta pregunta.

Reunieron más de 1600 sabores de helado existentes, y los introducimos en un algoritmo para ver qué podría generar.

Estos son algunos de los sabores que la IA inventó.

[Helado fétido de calabaza]
(Risas)
[Babas con mantequilla de cacahuete] [Cremosa dolencia de fresa]
(Risas)
Estos no son sabores deliciosos, como quizá hubiésemos esperado.

Luego la pregunta es:

¿Qué sucedió, qué es lo que ha fallado?

¿Intenta la IA acabar con nosotros?

¿O intenta hacer lo que le pedimos, y había un problema?

En las películas, cuando algo falla con la IA, habitualmente se debe a que la IA ha decidido que no quiere seguir obedeciendo a los humanos, y tiene sus propios objetivos, no iba ella a ser menos.

En realidad, la IA que tenemos no es lo bastante inteligente para eso.

Tiene la capacidad de cálculo aproximada de una lombriz, o quizá de una sola abeja.

Y de hecho, probablemente incluso menos.

Aprendemos constantemente cosas nuevas sobre el cerebro que evidencian el grado en que la IA no es comparable a cerebros reales.

La IA actual puede identificar a un peatón en una imagen, pero no tiene un concepto de lo que un peatón es, más allá de un agregado de líneas, texturas y otras cosas.

No sabe lo que un humano realmente es.

¿Hará entonces la IA actual aquello que le pedimos?

Lo hará si puede, pero es posible que no haga lo que queremos de ella.

Digamos que Uds.

intentaran que una IA tomara esta colección de piezas de robot, y las ensamblara en un robot para ir del punto A al punto B.

Si intentamos solucionar este problema con un programa tradicional de ordenador, daríamos al programa instrucciones paso a paso de cómo tomar estas partes, cómo ensamblarlas en un robot con piernas, y cómo caminar con ellas hasta el punto B.

Pero cuando utilizamos IA para solucionar el problema, se procede de otra manera.

No se le enseña cómo resolver el problema, únicamente se le da el objetivo, y tiene que lograrlo por sí misma a través de ensayo y error para alcanzar ese objetivo.

El modo en que la IA tiende a resolver este particular problema es el siguiente: Se ensambla en una torre, y luego se deja caer para ir a parar al punto B.

Y técnicamente, soluciona el problema.

Técnicamente, llegó al punto B.

El peligro de la IA no es que vaya a rebelarse contra nosotros, sino que hará exactamente lo que le pidamos que haga.

Luego el quid de la cuestión al trabajar con IA pasa a ser cómo estructuramos el problema para que haga lo que queremos.

Este pequeño robot de aquí está controlado por una IA.

La IA ideó un diseño para las piernas del robot, y luego averiguó cómo usarlas para superar todos estos obstáculos.

Pero cuando David Ha preparó este experimento, tuvo que diseñarlo con límites muy estrictos en cuanto al tamaño de piernas permitido, porque de lo contrario…


(Risas)
Y técnicamente, logró completar el recorrido de obstáculos.

Pueden ver lo difícil que es para la IA hacer algo tan sencillo como caminar.

Viendo esto, quizá pensemos que no es justo, no puede hacer una torre y dejarse caer, tiene que usar piernas para caminar.

Y resulta que eso tampoco funciona siempre.

La tarea de esta IA era moverse con rapidez.

No se le especificó que tuviera que hacerlo de frente, o que no pudiera usar sus brazos.

Esto es lo que se obtiene cuando se entrena a la IA para moverse deprisa.

Obtienes volteretas y andares cómicos.

Es muy común.

También lo es arrastrarse por el suelo en un montón.


(Risas)
En mi opinión, lo que debería haber sido mucho más extraño son los robots de «Terminator».

Hackear «The Matrix» es otra cosa que una IA hará si le das la oportunidad.

Si entrenas a la IA en una simulación, aprenderá cómo hackear los errores matemáticos de la simulación y utilizarlos para obtener energía.

O averiguará cómo moverse más rápido explotando fallos encontrados en el suelo.

Cuando trabajas con IA no es como si trabajaras con otro ser humano sino como hacerlo con una fuerza extraña de la naturaleza.

Es muy fácil dar accidentalmente a la IA el problema erróneo que resolver, y frecuentemente no nos percatamos hasta que las consecuencias son evidentes.

He aquí un experimento que hice, quería que la IA copiara colores para inventar otros nuevos, dada una lista como la de la izquierda.

Y esto es lo que la IA propuso: [Caca de Sindis, Zurullo, Sufrimiento, Gris púbico]
(Risas)
Técnicamente, hizo lo que le pedí.

Pensé que le estaba pidiendo nombres apropiados para colores, pero lo que verdaderamente le pedí es que imitase las combinaciones de letras que había visto en la lista original.

No le dije lo que las palabras significan, o que quizá haya ciertas palabras que debería evitar utilizar en estos colores.

Todo su mundo se reduce a la información que le proporcioné.

Como con los sabores de helado, no sabe de ninguna otra cosa.

Es a través de la información que con frecuencia decimos a la IA accidentalmente que haga algo erróneo.

Este pez se llama tenca.

Había un grupo de investigadores que entrenó a una IA para identificar a esta tenca en imágenes.

Pero cuando le preguntaron qué parte de la imagen utilizaba para identificar al pez, esto es lo que destacó.

Son dedos humanos.

¿Por qué estaría buscando dedos humanos si está intentando identificar un pez?

Resulta que la tenca es un pez trofeo, y en muchas imágenes que la IA había visto del pez durante su entrenamiento, el pez aparecía así.


(Risas)
No sabía que los dedos no son parte del pez.

Pueden ver por qué es tan complicado diseñar una IA que verdaderamente entienda aquello que está viendo.

Por eso diseñar en coches autónomos el reconocimiento de imágenes es tan difícil, y muchos fallos de coches autónomos se deben a que la IA se confundió.

Quiero hablar de un ejemplo de 2016.

Hubo un funesto accidente cuando alguien usaba la IA de piloto automático de Tesla, pero en lugar de hacerlo en la autopista para la que estaba diseñada, la usó en las vías urbanas.

Lo que sucedió fue que un camión condujo frente al coche, y el coche no frenó.

La IA estaba entrenada para reconocer camiones en las imágenes.

Pero al parecer la IA había sido entrenada para reconocer camiones en la autopista, donde esperarías verlos desde la parte trasera.

Que los camiones se te crucen no es algo que suceda en la autopista, y cuando la IA vio a este camión, parece que lo reconoció como una señal de carretera, y por tanto que la conducción por debajo era segura.

Aquí tenemos una equivocación de una IA en otra área.

Amazon tuvo que abandonar un algoritmo de clasificación de currículums en el que trabajaban cuando descubrieron que el algoritmo había aprendido a discriminar a las mujeres.

Lo que pasó fue que la habían entrenado con currículums de gente que habían contratado en el pasado.

De estos ejemplos, la IA aprendió a evitar currículums de personas que hubieran ido a universidades de mujeres, o que contuvieran la palabra «mujer» en su currículum, como «equipo de fútbol de mujeres», o «Sociedad de Mujeres Ingenieras».

La IA no sabía que no debía copiar este modo de proceder que había visto emplear a los humanos.

Y técnicamente, hizo lo que se requería de ella.

Simplemente, de forma accidental le solicitaron algo incorrecto.

Esto sucede constantemente con la IA.

La IA puede ser muy destructiva sin tener conciencia de ello.

Las IAs que recomiendan nuevo contenido en Facebook, o en Youtube, están optimizadas para incrementar el número de clics y visualizaciones.

Y desafortunadamente, una forma que han encontrado de lograrlo es recomendar contenido concerniente a teorías conspiratorias o fanatismo.

Las IAs no tienen concepto alguno de qué es realmente este contenido, ni tienen un entendimiento de las posibles consecuencias de recomendar este contenido.

Al trabajar con IA, depende de nosotros evitar los problemas.

Eludir estos errores puede depender del viejo problema de la comunicación, y que nosotros los humanos tengamos que aprender a comunicarnos con la IA.

Tenemos que aprender lo que la IA es capaz de hacer y lo que no, y entender que, con su pequeño cerebro de lombriz, la IA no entiende verdaderamente lo que le estamos pidiendo que haga.

En otras palabras, hemos de estar preparados para trabajar con una IA que no es la súper competente sabelotodo de la ciencia ficción.

Hemos de estar preparados para trabajar con la IA que tenemos disponible en la actualidad.

Y la IA actual es ya lo bastante extraña.

Gracias.


(Aplausos)

https://www.ted.com/talks/janelle_shane_the_danger_of_ai_is_weirder_than_you_think/

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *