Contenidos
Charla «Cómo Twitter necesita cambiar» de TED2019 en español.
¿A caso Twitter puede salvarse? En esta extensiva conversación con Chris Anderson y Whitney Pennington Rodgers de TED, Jack Dorsey, el CEO de Twitter, habla sobre el futuro de la plataforma, reconociendo los problemas de acoso y moderación y proponiendo algunos cambios fundamentales que espera que promuevan conversaciones sanas y respetuosas. «¿En realidad estamos ofreciendo algo que las personas valoran cada día?» Pregunta Dorsey.
- Autor/a de la charla: Jack Dorsey
- Fecha de grabación: 2019-04-15
- Fecha de publicación: 2019-04-17
- Duración de «Cómo Twitter necesita cambiar»: 1547 segundos
Traducción de «Cómo Twitter necesita cambiar» en español.
Chris Anderson:
¿Qué les preocupa ahora?
Han sido muy abiertos sobre muchos problemas en Twitter.
¿Cuál es su principal preocupación sobre el estado actual de la situación?
Jack Dorsey: En este momento, es la salud de la conversación.
Nuestro propósito es servir la conversación pública, y hemos visto varios ataques contra ella.
Hemos visto abuso, acoso, manipulación, automatización, coordinación humana y desinformación.
Son dinámicas que no esperábamos cuando iniciamos la compañía hace 13 años.
Pero ahora vemos su magnitud, y lo que más me preocupa es nuestra habilidad para abordarlos de una forma sistemática ampliable que comprenda rigurosamente la forma en la que actuamos, una comprensión clara de la forma en la que actuamos, y un proceso riguroso de apelaciones para cuando nos equivoquemos, porque nos equivocaremos.
Whitney Pennington Rodgers: Me alegra mucho saber que es algo que les preocupa, porque se ha escrito mucho sobre personas que sufrieron abuso y acoso en Twitter, y creo que ningunas más que las mujeres, las mujeres de color y las mujeres afroamericanas.
Y ha surgido información como el reporte que publicó Amnistía Internacional hace unos meses que muestra que un subconjunto de usuarias activas afroamericanas en Twitter recibían, en promedio, en uno de cada 10 tuits, algún tipo de acoso.
Cuando piensan en salud para la comunidad en Twitter, me interesa escuchar que habrá salud para todos pero
¿cómo harán que Twitter sea un lugar seguro para las mujeres, las mujeres de color y las mujeres afroamericanas?
JD: Sí.
Es una situación terrible cuando ingresan a un servicio en el que, idealmente, quieren aprender algo del mundo, pero la mayor parte del tiempo reportan abuso, reciben abuso y reciben acoso.
Estamos investigando a fondo los incentivos que la plataforma ofrece naturalmente y el servicio que ofrece.
Por ahora, la dinámica del sistema hace que sea muy fácil acosar y abusar a otros por medio del servicio y, por desgracia, la mayor parte de nuestro sistema se basaba completamente en que las personas reportaran el acoso y abuso.
A mediados del año pasado decidimos aplicarle más aprendizaje automático, más aprendizaje profundo al problema, y tratar de ser más proactivos en donde sucede el abuso para quitarle ese peso de encima a la víctima.
Y hemos progresado recientemente.
Alrededor del 38 % de los tuits abusivos se identifican proactivamente por medio del aprendizaje automático para que las personas no tengan que reportarlos.
Pero tenemos personas revisando los tuits identificados, así que no borramos contenido o cuentas sin que alguien las revise.
Y hace un año eso estaba en 0 %.
Eso significa que, en el 0 % cada persona que recibía abuso tenía que reportarlo, lo cual era mucho trabajo para ellos, mucho trabajo para nosotros y a final de cuentas era muy injusto.
También nos estamos asegurando que nosotros, como compañía, contemos con representación de las comunidades a las que servimos.
No podemos construir un negocio exitoso a menos que tengamos una perspectiva interna diversa que viva estos problemas día a día.
Eso no solo aplica para el equipo que realiza ese trabajo, sino también para nuestros directivos.
Necesitamos continuar desarrollando empatía por lo que viven las personas y darles mejores herramientas para defenderse, y también darles a nuestros clientes un acercamiento mejor y más sencillo para lidiar con algunas de las cosas que ven.
Mucho de lo que estamos haciendo se centra en la tecnología, pero también estamos enfocándonos en los incentivos del servicio:
¿Qué es lo que Twitter los incentiva a hacer cuando lo abren por primera vez?
En el pasado, incentivó mucha indignación, comportamiento gregario, y acoso grupal.
Tenemos que investigar a fondo algunos de los fundamentos de lo que está haciendo el servicio para hacer cambios grandes.
Podemos hacer muchos cambios pequeños con tecnología, como describí, pero a final de cuentas tenemos que observar a fondo las dinámicas en la red, y eso estamos haciendo.
CA: Pero
¿qué podrían cambiar para modificar ese comportamiento?
JD: Bueno, comenzamos el servicio con el concepto de seguir una cuenta, como ejemplo, y no creo que sea la razón por la cual las personas entran a Twitter.
Considero que Twitter es mejor conocida como una red basada en intereses.
Las personas ingresan con un interés particular.
Deben esforzarse mucho para encontrar y seguir cuentas relacionadas a esos intereses.
Lo que podemos hacer es permitir que sigan un interés, sigan un hashtag, sigan una tendencia, sigan una comunidad, lo cual nos brinda la oportunidad de mostrar todas las cuentas, todos los temas, todos los momentos, todos los hashtags asociados con ese tema e interés en particular, lo cual amplía la perspectiva de lo que pueden ver.
Pero es un cambio fundamental muy grande hacer que la red deje de tener una inclinación hacia las cuentas y que tenga una inclinación hacia temas e intereses.
CA: Pero
¿no es cierto que una de las razones por las cuales tienen tanto contenido se debe a que tienen a millones de personas de todo el mundo en una especie de contienda entre gladiadores para conseguir seguidores y atención?
Desde el punto de vista de las personas que solo leen Twitter, eso no es un problema, pero todos los creadores desean tener más «me gusta», más seguidores y más retuits.
Así que constantemente están experimentando para encontrar la manera de logarlo.
Y todos hemos descubierto que la principal forma para lograrlo es ser provocativo, detestable, elocuentemente detestable, en Twitter aman a los insultos elocuentes y rápidamente acumulan…
y se convierte en este proceso que fomenta indignación.
¿Cómo disipan eso?
JD: Creo que diste en el blanco, pero eso vuelve a los incentivos.
Una de las decisiones que tomamos al principio fue tener un número que mostrara cuántas personas te seguían.
Decidimos que ese número sería grande y estaría en negritas, y todo lo que es grande y está en negritas es importante, y es algo que se quiere incrementar.
¿Fue la decisión correcta en el momento?
Probablemente no.
Si tuviera que volver a empezar no resaltaría tanto el número de seguidores.
No resaltaría tanto el número de «me gusta».
Creo que no hubiera creado los «me gusta» en primer lugar, porque no representan realmente lo que ahora creemos que es lo más importante, lo cual es una contribución sana hacia la red y las conversaciones en la red, la participación en las conversaciones, y aprender algo de las conversaciones.
No pensamos en eso hace 13 años, pero ahora creemos que son aspectos muy importantes.
Tenemos que observar cómo mostramos el contador de seguidores, cómo mostramos el contador de retuits, cómo mostramos los «me gusta» y preguntarnos:
¿En verdad queremos que las personas incrementen este número?
¿Esto es lo que, cuando abran Twitter, observen y quieran incrementar?
Y no creo que sea el caso en estos momentos.
(Aplausos)
WPR: Creo que deberíamos ver algunos de los tuits que vienen de la audiencia.
CA: Veamos lo que están preguntando.
Una de las maravillas de Twitter es cómo puede usarse para la sabiduría de las masas, hay más conocimiento, más preguntas, y más puntos de vista de los que podamos imaginar y, algunas veces, son muy sanos.
WPR: Creo que vi un tuit que decía: «
¿Cómo prevendrán la injerencia extranjera en las elecciones del 2020?
«.
Considero que es un problema que vemos en el internet en general, tenemos mucha actividad automática maliciosa.
Y en Twitter, por ejemplo, tenemos algunos reportes de nuestros amigos de Zignal Labs, y tal vez podamos verlos para darnos una idea de lo que estoy hablando, en los que se usan bots o actividades coordinadas de cuentas maliciosas automatizadas para influenciar situaciones tales como las elecciones.
En este ejemplo que Zignal compartió con nosotros usando información de Twitter, muestra que, en este caso, lo blanco representa las cuentas humanas, cada punto es una cuenta.
Entre más rosa esté más automatizada es la actividad.
Y pueden ver cómo hay pocos humanos interactuando con bots.
Este caso está relacionado con la elección en Israel y la divulgación de desinformación sobre Benny Gantz, y, como sabemos, al final fue una elección que Netanyahu ganó por un pequeño margen, y eso pudo haber sido influenciado por esto.
Cuando piensan que esto está sucediendo en Twitter,
¿qué están haciendo para asegurarse que no haya desinformación divulgándose de esta forma, influenciando a las personas en maneras que puedan afectar la democracia?
JD: Para recapitular un poco, nos hicimos una pregunta:
¿En verdad podemos medir la salud de la conversación y qué significa eso?
Y de la misma forma que Uds.
tienen indicadores y como humanos tenemos indicadores que nos dicen si estamos sanos, tales como la temperatura, el rubor en nuestro rostro, creemos que podemos encontrar indicadores de la salud conversacional.
Trabajamos con un laboratorio llamado Cortico en el MIT para proponer cuatro indicadores de entrada que consideramos que podemos medir en el sistema.
El primero es la atención compartida.
Mide qué porcentaje de la conversación es atenta en un mismo tema en vez de dispersa.
El segundo se llama realidad compartida, y es el porcentaje de la conversación que comparte los mismos hechos y no si esos hechos son verdaderos o no, pero
¿compartimos los mismos hechos al conversar?
El tercero es la receptividad, es el porcentaje de la conversación que es receptiva o civil, o, al contrario, tóxica.
Y el cuarto es la variedad de perspectivas.
¿Estamos viendo filtros burbuja o cámaras de eco, o en realidad estamos teniendo una variedad de opiniones dentro de la conversación?
Está implícito dentro de los cuatro indicadores que, al incrementar, la conversación se hace cada vez más sana.
Nuestro primer paso es ver si podemos medirlos en línea, y creemos que sí.
Tenemos mayor impulso en la receptividad.
Tenemos un marcador de toxicidad, un modelo de toxicidad, en el sistema que en realidad puede medir la probabilidad de que abandonen una conversación en Twitter porque sienten que es tóxica con un nivel bastante alto.
Estamos trabajando para medir el resto y el siguiente paso es, mientras desarrollamos soluciones, observar la tendencia de estos indicadores con el tiempo y continuar experimentando.
Nuestro objetivo es asegurarnos de que estén balanceados, porque si uno incrementa, otro puede disminuir.
Si la variedad de perspectiva incrementa podría disminuir la realidad compartida.
CA: Solo para retomar el torrente de preguntas aquí.
JD: Preguntas constantes.
CA: Muchos preguntan
¿qué tan difícil es deshacerse de los nazis en Twitter?
JD:
(Risas)
Tenemos políticas sobre los grupos extremistas violentos, y la mayor parte de nuestro trabajo y términos del servicio se basan en la conducta y no el contenido.
Así que estamos observando la conducta.
La conducta usada en el servicio para acosar a alguien de forma repetida o episódica usando imágenes de odio que podrían asociarse con el KKK o el Partido Nazi Americano.
Son situaciones en las que actuamos inmediatamente.
Estamos en una situación en la que ese término se usa a la ligera y no podemos tomar cualquier mención de esa palabra al acusar a alguien más como un hecho de que deberían eliminarlos de la plataforma.
Muchos de nuestros modelos se basan en, número uno:
¿Esta cuenta está asociada con un grupo violento extremista?
Y si lo está, podemos actuar.
Y lo hemos hecho con el KKK, el Partido Nazi Americano y otros.
Y número dos:
¿Están usando imágenes o conductas que los asociarían como tal?
CA:
¿Cuántas personas están moderando el contenido para evaluar esto?
JD: Varía.
Queremos ser flexibles con esto porque queremos asegurarnos de que estamos, número uno, creando algoritmos en vez de contratar cantidades masivas de personas porque necesitamos asegurarnos de que esto pueda escalarse y las personas no pueden escalarlo.
Por eso hemos trabajado mucho en la detección proactiva del abuso que después pueda revisar una persona.
Queremos llegar a un punto en el que los algoritmos analicen constantemente cada tuit y destaquen los más interesantes para que nuestro equipo pueda juzgar si debemos intervenir o no basándose en los términos del servicio.
WPR: No existe una cantidad de personas escalable, pero
¿cuántas personas tienen monitorizando estas cuentas y cómo saben cuándo es suficiente?
JD: Son completamente flexibles.
Algunas veces asociamos a las personas con spam.
Algunas veces los asociamos con abuso y acoso.
Nos aseguraremos de que nuestras personas sean flexibles para dirigirlas a donde sean más necesarias.
A veces, a las elecciones.
Hemos tenido una serie de elecciones en México, habrá una en la India, obviamente, la elección del año pasado, la de mitad del periodo, así que queremos ser flexibles con nuestros recursos.
Cuando las personas…
por ejemplo, si entran a nuestros términos del servicio actuales, abren la página, piensan en el abuso y acoso que acaban de recibir y se preguntan si va en contra de los términos del servicio para reportarlo, lo primero que ven al abrir esa página es la protección de propiedad intelectual.
Si se desplazan hacia abajo llegarán al abuso, acoso y todo lo demás que tal vez estén experimentando.
No sé cómo sucedió eso en la historia de la compañía, pero lo priorizamos sobre aquello que las personas buscan obtener más información y formas de actuar.
Ese orden le muestra al mundo lo que creíamos que era importante.
Estamos cambiando todo eso.
Lo estamos ordenando de forma correcta, y también estamos simplificando las reglas para que puedan ser legibles y que las personas puedan entender por sí mismas cuando algo va en contra de nuestros términos y cuando no.
Y estamos haciendo…
de nuevo, buscamos quitarle ese trabajo de encima a las víctimas.
Eso significa invertir más en la tecnología y no en las personas que hacen el trabajo, incluyendo las que reciben abuso y las que revisan ese contenido.
Queremos asegurarnos de que no fomentamos más trabajo alrededor de algo tan negativo, y queremos tener un buen balance entre la tecnología y el lugar donde las personas puedan ser creativas, lo cual juzga las reglas, y no solo encontrar y reportar cosas mecánicamente.
Así es como pensamos en eso.
CA: Me da curiosidad abordar lo que dices.
Me encanta que digas que buscan maneras de modificar el diseño fundamental del sistema para disuadir parte del comportamiento reactivo, y tal vez usar el tipo de lenguaje de Tristan Harris, y captar el pensamiento reflexivo de las personas.
¿Qué tan avanzado está eso?
¿Cuáles serían las alternativas a ese botón de «me gusta»?
JD: Primero que nada, mi meta personal con el servicio es que realmente considero que la conversación pública es crucial.
Hay crisis existenciales en el mundo, en todo el mundo y no solo en una nación en particular, que se benefician con esa conversación pública global.
Esa es una de las dinámicas únicas de Twitter, es completamente abierto, público y fluido y cualquiera puede ver las conversaciones y participar en ellas.
Hay conversaciones sobre el cambio climático, sobre el desplazamiento laboral debido a la inteligencia artificial, y sobre la desigualdad económica.
Una nación no podrá resolver el problema por su cuenta sin importar lo que haga.
Se necesita una coordinación global, y creo que ahí es donde Twitter puede actuar.
Lo segundo es que, actualmente, cuando entran a Twitter, no sienten que aprendieron algo.
Algunos sí lo hacen.
Algunos tienen una red muy, muy, valiosa, una comunidad muy valiosa de la que aprenden a diario.
Pero toma mucho trabajo y mucho tiempo construir algo así.
Queremos que las personas lleguen a esos temas e intereses de forma más rápida y asegurarnos de que encuentren algo, sin importar cuánto tiempo estén en Twitter…
y no quiero incrementar el tiempo en Twitter, quiero incrementar lo que se llevan de ahí, lo que aprenden, y…
CA:
¿Seguro?
Porque eso es realmente lo que la gente quiere saber.
Claro, Jack, están atados en gran medida por el hecho de que son una compañía pública, tienen inversionistas presionándolos, y su principal forma de ganar dinero es por medio de publicidad que depende de la participación de los usuarios.
¿Están dispuestos a sacrificar el tiempo de usuario, si fuera necesario, para tener conversaciones más reflexivas?
JD: Sí, más relevancia significa menos tiempo en el servicio, eso me parece bien porque queremos asegurarnos de que entren a Twitter, e inmediatamente vean algo de lo que aprendan y que lo promuevan.
Y eso puede tener publicidad.
No significa que deben pasar más tiempo ahí para ver más.
Lo segundo que estamos observando…
CA: Pero con esa meta de uso diario activo, si lo están midiendo no significa necesariamente algo que las personas valoren cada día.
Podría significar cosas que atraen a las personas, como polilla a las llamas.
Somos adictos porque vemos algo que nos molesta, así que vamos a añadirle leña al fuego, y el uso diario activo incrementa, genera más ingresos de publicidad, pero nos molestamos más con los demás.
¿Cómo definen…?
El «uso diario activo» suena como algo peligroso para optimizar.
(Aplausos)
JD: Lo es, por su cuenta, pero no me dejaste terminar la otra métrica, y es que buscamos conversaciones y cadenas de conversaciones.
Queremos incentivar las contribuciones sanas hacia la red y creemos que eso es, en realidad, participar en una conversación que sea sana, como se define por los cuatro indicadores que formulé anteriormente.
Así que no solo se puede optimizar una métrica.
Se tienen que balancear y tenemos que buscar constantemente lo que en realidad va a crear una contribución sana en la red y una experiencia sana para las personas.
Queremos llegar a una métrica en la cual las personas puedan decirnos que aprendieron algo de Twitter y se llevan algo valioso.
Esa es nuestra finalidad con el tiempo, pero nos tomará algo de tiempo.
CA: Eres un enigma para muchos y para mí también.
Esto tal vez sea injusto, pero la otra noche desperté con una imagen de cómo pensaba en ti y en esta situación, estamos contigo en esta travesía en un barco llamado «El Twittanic» —
(Risas)
y hay personas a bordo en el entrepuente expresando incomodidad, y tú, a diferencia de otros capitanes, dices, «Bueno, dime, háblame, escúchame, quiero escuchar».
Y te hablan y dicen, «Nos preocupa el iceberg que está adelante».
Y dices, «Ese un muy buen punto, y nuestro barco no se construyó correctamente para maniobrar como debería».
Y decimos, «Por favor, haz algo».
Y vas al puente de mando, te esperamos, te miramos, y te ves extremadamente calmado, pero todos estamos afuera gritando: «¡Jack, mueve el maldito timón!».
¿Sabes?
(Risas)
(Aplausos)
Digo…
(Aplausos)
La democracia está en juego.
Nuestra cultura está en juego.
Nuestro mundo está en juego.
Twitter es genial y moldea muchas cosas.
No es tan grande como otras plataformas, pero los influyentes lo usan para impulsar sus agendas, y es difícil imaginar un papel más importante en el mundo que…
Estás haciendo un excelente trabajo escuchando, Jack, escuchando a la gente, pero en verdad incrementar la urgencia y abordar estas cosas…
¿lo harás?
JD: Sí, y lo hemos abordado considerablemente.
Hemos tenido varias dinámicas en la historia de Twitter.
Cuando regresé a la compañía, estábamos en un estado terrible en cuanto a nuestro futuro, no solo en la forma en la que las personas usaban la plataforma, sino también desde una narrativa corporativa.
Tuvimos que arreglar muchos de los fundamentos, transformar la compañía, pasar por dos grandes despidos, porque crecimos demasiado para lo que estábamos haciendo, y enfocamos toda nuestra energía en el concepto de servir la conversación pública.
Eso tomó algo de trabajo.
Mientras nos adentramos en eso, nos dimos cuenta de algunos de los problemas con nuestros fundamentos.
Podíamos hacer muchas cosas superficiales para resolver lo que mencionas, pero necesitamos que los cambios duren y eso implica profundizar muchísimo y prestarle atención a lo que iniciamos hace 13 años y preguntarnos cómo funciona el sistema y cómo funciona la estructura y qué necesita el mundo actualmente, basándose en lo rápido en lo que todo se mueve y cómo lo usa la gente.
Trabajamos lo más rápido posible, pero ser rápidos no es suficiente.
Debemos enfocarnos, priorizar, entender los fundamentos de la red, construir un marco escalable y resistente a los cambios, y ser abiertos y claros sobre dónde nos encontramos para seguir inspirando confianza.
Estoy orgulloso de los marcos que hemos implementado.
Estoy orgulloso de nuestra dirección.
Pudimos abordarlo más rápido, pero requería detener un montón de cosas estúpidas que estábamos haciendo.
CA: Está bien.
Sospecho que muchos aquí, si tuvieran la oportunidad, estarían encantados de ayudarte con esta agenda de cambios, y no sé si Whitney…
Gracias por venir y por hablar de forma tan abierta, Jack.
Tomó mucho valor hacerlo.
En verdad aprecio lo que dijiste y buena suerte con tu misión.
JD: Muchas gracias.
Gracias por invitarme.
(Aplausos)
Gracias.
https://www.ted.com/talks/jack_dorsey_how_twitter_needs_to_change/