BBC NEWS MUNDO

“Facebook puede ser empleado para crear divisiones y expandir el odio”

El libro, publicado en español por la editorial Debate, lleva meses generando polémica en Estados Unidos. Cuenta precisamente lo que la compañía de Mark Zuckerberg trata de ocultar y saca a la luz sus trapos más sucios.

Sheera Frankel es una periodista galardonada que, con su también destacada colega Cecilia Kang, escribió el crítico libro html5-dom-document-internal-entity1-quot-endManipulados. La batalla de Facebook por la dominación mundialhtml5-dom-document-internal-entity1-quot-end.

Sheera Frankel es una periodista galardonada que, con su también destacada colega Cecilia Kang, escribió el crítico libro html5-dom-document-internal-entity1-quot-endManipulados. La batalla de Facebook por la dominación mundialhtml5-dom-document-internal-entity1-quot-end.

“Manipulados. La batalla de Facebook por la dominación mundial”. Ese es el título del libro que dos premiadas periodistas del New York Times especializadas en tecnología y en ciberseguridad, Sheera Frenkel y Cecilia Kang, han escrito a cuatro manos sobre la famosa red social.

El libro, publicado en español por la editorial Debate, lleva meses generando polémica en Estados Unidos. Normal: cuenta precisamente lo que la compañía de Mark Zuckerberg trata de ocultar, saca a la luz sus trapos más sucios.

Fruto de una ardua labor de investigación que ha incluido más de 400 entrevistas a ejecutivos y empleados del gigante de Silicon Valley, legisladores, inversores y académicos, el libro desvela a lo largo de sus 350 páginas el lado más oscuro de la compañía durante los cinco años más controvertidos de su existencia.

Sheera Frenkel nos cuenta en esta entrevista algunos de los secretos de Facebook que la empresa se esfuerza en esconder.


El título original de su libro es “An Ugly Truth: Inside Facebook’s Battle for Domination”, lo que en español equivaldría textualmente a “Una fea verdad: dentro de la batalla de Facebook por la Dominación”. ¿Cuál es la fea verdad sobre Facebook?

La expresión “una fea verdad” tiene su origen en un ejecutivo de Facebook que escribió un memorándum en el que decía que había una “fea verdad” en el corazón de la compañía. Y la fea verdad es que para conseguir algo que Facebook considera una noble misión, como es la de conectar al mundo, deben de aceptar que se produzca cierta cantidad de daños a través de su plataforma.

Es decir: para crecer tan deprisa como puedan y conectar al mayor número posible de gente, algunas personas van a resultar heridas y perjudicadas, algunas incluso van a resultar asesinadas. Ese es el cálculo que la propia compañía hacía.

¿Significa eso que para Facebook son más importantes los beneficios económicos que la ética o la moral?

Bueno, es una empresa, así que el balance económico es muy importante para ellos. Pero creo que, a nivel personal, para Mark Zuckerberg es más importante crecer y ser la mayor compañía de medios sociales del mundo que tener beneficios, se trata más del poder que de ello deriva que de los ingresos económicos.

Ahora mismo estamos viendo a Zuckerberg ansioso por estar en el centro de la próxima innovación tecnológica.

¿Facebook es o puede llegar a ser un peligro para la democracia?

Creo que se ha demostrado que Facebook puede ser peligroso para la democracia cuando se usa inapropiadamente, cuando se usa por aquellos que quieren propagar desinformación y controlar a las poblaciones.

Facebook puede ser utilizado de manera muy poderosa por aquellos que desean desestabilizar la democracia en sus países.

En ese sentido, es muy impresionante lo que ocurrió en Myanmar, la antigua Birmania, en 2017 y 2018, cuando se registró una limpieza étnica contra la minoría musulmana por parte de la mayoría budista. Facebook contribuyó a difundir el odio contra los musulmanes, ¿verdad?

Eso es. Creo que lo que ocurrió en Myanmar es un ejemplo muy poderoso de cómo Facebook puede ser empleado para crear divisiones y expandir el odio.

Lo que ocurrió en Myanmar es que a un grupo personas que llevaba mucho tiempo difundiendo una ideología racista se le dio una nueva herramienta y un poder adicional para hacer eso.

Gracias a Facebook fueron capaces de difundir sus mensajes racistas entre un nuevo grupo de personas y convencerlas a través de las herramientas que les proporcionaba Facebook.

¿Facebook no contaba con moderadores que controlaran que no se difundieran esos mensajes de odio?

Facebook moderaba los contenidos sólo hasta cierto punto. Por varios motivos: el primero es que siendo una compañía estadounidense, Facebook siente muy fuertemente los principios de libertad de expresión que recoge la Primera Enmienda a la Constitución de EE.UU., por lo que no quieren ser ellos los que decidan lo que la gente puede o no puede decir, y por eso crearon ciertas reglas.

El problema, especialmente en aquellos lugares en los que no se habla inglés, es que Facebook también lucha para mantener sus cifras de crecimiento. Facebook presiona agresivamente en mercados como India, donde hay 22 lenguas oficiales y más de 100 dialectos y lenguas no oficiales.

Cuando tienes un país como India, con más de 400 millones de usuarios de Facebook, es realmente complicado moderar los contenidos en todas esas lenguas y dialectos locales.

Policías antimotines en Devara Jeevanahalli, India, patrullan la ciudad después de que un mensaje antimusulmán en Facebook desatara violentas protestas
En Devara Jeevanahalli, India, un mensaje antimusulmán en Facebook desató violentas protestas. Getty Images

En Myanmar, si no me equivoco, cuando empezaron a propagarse por Facebook los mensajes de odio contra los musulmanes, sólo había una única persona de esa red social encargada de moderar los comentarios…

Sí. Eso fue en 2015, cuando los mensajes de odio comenzaron a crecer enormemente y empezamos a ver en Myanmar algunos ataques violentos contra la minoría musulmana.

Por aquel entonces Facebook tenía un solo moderador en birmano, la lengua oficial de Myanmar, pero hay otras docenas de lenguas no oficiales que se hablan en el país.

Unos tres años después el país aumentó el número de lenguas oficiales a tres, y ahora tienen docenas, pero incluso docenas no es mucho en un país en el que se hablan tantas lenguas como en ese.

Después del asalto al Capitolio el pasado 6 de enero, Facebook bloqueó la cuenta del expresidente Donald Trump y posteriormente la prohibió. ¿Es una muestra de que Facebook está cambiando?

Creo que bloquear a Donald Trump fue un paso muy importante porque Facebook, como compañía, había mantenido la posición de que los políticos podían en su red decir cosas que otra gente no podía porque pertenecían a una especie de clase especial dentro de Facebook.

Pero Donald Trump puso a prueba todas y cada una de las reglas de Facebook. Y tras los sucesos del 6 de enero, en Facebook observaron sus cuentas y decidieron que tenían que hacer algo, que lo que decía en Facebook era peligroso e inapropiado para esa red social, así que decidieron suspenderle durante tres años.

Considero que fue una decisión importante, pero aún más importante es saber si Facebook va a aplicar el mismo criterio a todos los líderes a lo largo y ancho del mundo que hacen las mismas cosas que Donald Trump.

En países desde Hungría hasta Filipinas o Brasil hay líderes y jefes de Estado que en Facebook tienen un estilo muy similar al de Donald Trump. En Brasil, por ejemplo, Bolsonaro ha dicho cosas sobre el covid que técnicamente atentan contra las reglas de Facebook y Facebook ha eliminado esos posts.

Pero tengo curiosidad por ver si Facebook también va a prohibir en su red a Bolsonaro y a otros líderes mundiales que han cruzado la línea de las reglas de la compañía de Zuckerberg.

¿Facebook es una herramienta que ayuda a los líderes populistas?

Yo diría que a los líderes que están inclinados hacia el populismo, Facebook les ofrece una poderosa herramienta para difundir su mensaje.

Pero Facebook puede serle útil a cualquier líder. Facebook también le fue muy útil a Barack Obama en Estados Unidos; Obama tenía muchísimos seguidores en Facebook y eso le ayudó a llegar a los jóvenes americanos cuando presentó por primera vez su candidatura a presidente de EEUU.

Facebook puede serle muy útil a cualquier líder, pero estamos viendo una tendencia entre los líderes de todo el mundo a usar Facebook en un modo muy específico para controlar los mensajes que se difunden en sus países.

Se estima que más de 2.000 millones de personas se informan sobre la covid y sobre las vacunas a través fundamentalmente de Facebook. ¿Está esa red social contribuyendo a difundir el mensaje antivacunas?

Se han realizado muchos estudios sobre desinformación por investigadores científicos, y han observado que las personas que se niegan a ponerse la vacuna en Estados Unidos generalmente dan como primer motivo para ello que hay una conspiración en torno a las vacunas o algún tipo de desinformación que encontraron en Facebook.

Se trata de algo que preocupa enormemente a la comunidad científica. Hay mucha gente que continúa creyendo en contenidos sobre las vacunas que sus familiares o amigos comparten en Facebook en lugar de lo que los doctores y la comunidad científica saben con certeza.

Una protesta por las medidas contra covid en Australia
Los activistas contra las medidas de los gobiernos para mitigar el impacto de covid se informan a través de Facebook. Getty Images

¿La desinformación y las fake news están en la base del modelo de negocio de Facebook?

Esa es una cuestión en la que Facebook es muy cuidadoso y que jamás reconocerá, y además nunca sabremos cómo funcionan sus algoritmos. Pero algunas cosas sabemos. A partir de toda la investigación que realizamos para escribir el libro, supimos que el algoritmo de Facebook prioriza los contenidos emotivos.

Así que cualquier cosa que inspire una emoción en el usuario, cualquier cosa que le haga sentirse feliz, triste o enfadado, Facebook lo va a colocar en los primeros puestos de sus noticias para que sea la primera cosa que vea ese usuario. Y hacen eso para mantener a los usuarios conectados a la red social el mayor tiempo posible.

Hicieron incluso un experimento al respecto, y descubrieron que el emoji de la cara enfadada y el de la cara triste eran más importantes que el de la cara feliz, que la emoción de enfado es más fuerte que la de felicidad.

Y aunque como compañía Facebook no ha tomado la decisión priorizar la desinformación, las teorías conspirativas o los mensajes de odio, si se priorizan los contenidos que enfadan a los usuarios, la desinformación acaba compartiéndose más ampliamente y en mejores posiciones en el newsfeed de esa red social que un artículo informativo sobre vacunas.

Un emoji rojo con expresión de enfado encima de un grupo de emojis blancos con expresión de tristeza
Facebook prioriza la emoción de enfado en sus noticias porque mantiene a sus usuarios más tiempo conectados. Getty Images

Facebook jugó un papel importante en las elecciones estadounidenses de 2016, sirviendo como plataforma a las interferencias procedentes de Rusia. ¿Ha tomado medidas para evitar que algo así vuelva a suceder?

Sí. Facebook ha tomado algunas medidas muy serias para asegurarse de que no haya intromisiones en las elecciones como sucedió en las elecciones presidenciales de 2016. Ahora tiene un equipo completo dentro de Facebook que busca este tipo de actividades y elimina a las redes rusas, iraníes y de todo el mundo que actúan de esa manera.

Todos los meses hay campañas extranjeras de desinformación que se eliminan. Es algo en lo que Facebook está actuando activamente. Creo que Facebook se lo tomó en serio porque no tiene ninguna duda de que es algo malo que hay que eliminar.

Pero otra cosa son las personas que difunden desinformación entre sí, los estadounidenses que difunden desinformación a otros estadounidenses, o la gente de Brasil que difunde mentiras y conspiraciones entre los brasileños. Eso es algo donde Facebook no tiene el mismo tipo de políticas claras sobre la eliminación.

En los últimos años Estados Unidos se ha convertido en un país muy dividido, muy polarizado. ¿Facebook tiene algo que ver con eso?

En 2016, los piratas informáticos rusos que llevaron a cabo la campaña de la que hablábamos en Estados Unidos vieron la oportunidad de dividir a los estadounidenses, pero es imposible cuantificar cuánto lo consiguieron.

Pero los científicos sociales consideran que Estados Unidos en este momento está más dividido y polarizado que hace cuatro, cinco años. Así que algo está creando más polarización entre los estadounidenses, los está dividiendo más. Y existe la sensación de que Facebook está contribuyendo a eso.

Si Facebook no es capaz de autorregularse, ¿deberían de regularla los gobiernos?

En todo el mundo los gobiernos creo que se están preguntando cómo y cuándo deberían de regular a Facebook. Algunos países lo están haciendo de una manera más reflexiva y sutil que otros.

Creo que en este momento estamos en un período muy peligroso en el que podrían aprobarse leyes y regulaciones, lo cual no es bueno, porque en realidad fortalece el poder de Facebook o crea un precedente peligroso. Así que estamos en un momento interesante.

En Estados Unidos creo que los senadores están empezando a pensar de modo más sutil sobre cómo legislar sobre los algoritmos de Facebook, sobre lo que recomiendan y lo que no, sobre piezas específicas de información que se comparten en Facebook.

A estas alturas, ¿Mark Zuckerberg se ha convertido en un problema para Facebook?

Para las personas que trabajan en Facebook, Zuckerberg es un genio visionario. Pero pienso que, desde fuera, desde el punto de vista de las personas que contemplan a Facebook externamente como expertos en negocios o expertos en tecnología, es problemático que una persona tenga tanto poder y tome tantas decisiones por su cuenta como Mark Zuckerberg.

Porque Zuckerberg no sólo fundó la empresa, tiene la mayoría de las acciones. Eso le da un poder y un control absolutos, y realmente es él el que toma las decisiones finales. E incluso después de que algunas catástrofes realmente grandes por las que han pasado en Facebook, como lo ocurrido en Myanmar en 2016 o la interferencia de Rusia en Estados Unidos, su poder se ha consolidado y ha asumido una mayor parte en la toma de decisiones.

No ha dado un paso atrás y ha dicho: “Bueno, hice algunas cosas que son problemáticas y tal vez debería poner a alguien más a cargo de esa parte de la empresa”. No, ha hecho lo contrario.

Mark Zuckerberg durante una indagatoria de un comité de la Cámara de Representantes de EE.UU.
Mark Zuckerberg durante una indagatoria de un comité de la Cámara de Representantes de EE.UU. Getty Images

Facebook acaba de anunciar que cambiará su nombre corporativo a Meta. ¿Cree que es una operación cosmética tras los escándalos que en los últimos años han sacudido a Facebook y han dañado su reputación?

Creo que este cambio de nombre estaba planeado desde hace un tiempo. Y creo que con el nuevo nombre Facebook busca en parte distanciarse de todos los problemas que la gente asocia a su nombre.

Quieren comenzar una nueva era, un nuevo contrato con ese mundo virtual metaverso en el que todos viviremos y quieren hacerlo con un nombre nuevo.

Su libro claramente se concentra en las malas prácticas Facebook. ¿Qué es lo bueno de Facebook?

Fue la primera red social global en el mundo que nos permitió conectarnos con familiares y amigos allí donde estuvieran. Yo tengo amigos y parientes en muchas partes del mundo y puedo hablar con ellos gracias a WhatsApp, a Instagram y a Facebook.

Creo que no hay duda de que han creado oportunidades de negocio para la gente a lo largo y ancho del mundo en modos que ninguna tecnología había hecho antes. Ha creado cosas buenas, pero también malas.

En el libro nos hemos centrado en los daños potenciales porque Facebook es muy buena promocionando lo que hace bien, tienen un ejército de cientos de personas que se dedican a las relaciones públicas y a publicitar lo que hacen bien, pero que tratan de esconder lo que hacen mal.

Empleados de Facebook en la llamada "sala de guerra" donde se moderan los mensajes
Además de moderar y bloquear mensajes, Facebook tiene un ejército de personas que se dedica a relaciones públicas. Getty Images

Para escribir este libro, usted y Cecilia Kan llevaron a cabo más de 400 entrevistas. Y cuando iban a encontrarse con sus fuentes, no llevaban teléfonos móviles ni guardaban sus números en sus celulares. ¿Eran necesarias esas precauciones ante una compañía como Facebook?

Sí, realmente fuimos muy, muy cuidadosas cuando llevamos a cabo la investigación para escribir este libro. Yo he sido corresponsal extranjera en Medio Oriente durante diez años, y he tenido que informar desde muchos países donde es difícil ser periodista y donde tienes que ser extremadamente cuidadoso para proteger a tus fuentes.

Creo que Cecilia y yo teníamos mucha experiencia en lo importante que es mantener a la gente segura. En el caso de Facebook, y siendo esta una compañía tecnológica, pensamos que lo mejor era que asumiéremos que nos estaban vigilando porque sabían que estábamos escribiendo un libro sobre ella.

Así que efectivamente no llevaba mi celular o mi ordenador portátil a las reuniones, simplemente escribía notas en un cuaderno con un bolígrafo. Era una precaución para asegurarnos de que no dejábamos rastro de la gente que había hablado con nosotras.

Debo decir que de toda la gente con la que hablamos, ni una sola ha sido despedida por hablar con nosotras. Y sabemos que Facebook buscaba a las personas que estaban hablando con nosotras, pero no consiguieron averiguar quiénes eran.

Este artículo forma parte de la versión digital del Hay Festival Arequipa, un encuentro de escritores y pensadores que se realiza en esa ciudad peruana entre el 1 y el 7 de noviembre.

Sigue toda la información relacionada con el Hay Festival