Una vez que los usuarios jóvenes vieron y le dieron me gusta a contenido sobre la imagen corporal y la salud mental, TikTok en automático les recomienda videos relacionados cada 39 segundos, según los investigadores. Para probar la aplicación, los investigadores crearon ocho cuentas en agosto, en las que se hicieron pasar por adolescentes de 13 años, la edad mínima para ser usuario, en Estados Unidos, el Reino Unido, Australia y Canadá.
En una entrevista, Imran Ahmed, director ejecutivo del Centro para Contrarrestar el Odio Digital, expresó: “Los caminos hacia el contenido extremo eran tan inocuos. Tu ojo puede ser cautivado por un video de un cuerpo aspiracional en ropas hermosas y con mucha rapidez el algoritmo se da cuenta de que estás interesado en la imagen corporal”.
Algunas de las cuentas de prueba vieron videos que promovían la “junkorexia”, un término en inglés para las personas con anorexia que solo comen comida chatarra, y otros de usuarios que hablan sobre el suicidio o que usan navajas. Los investigadores descubrieron que muchos videos promovían trastornos alimentarios mediante etiquetas con palabras en código para tratar de evitar a los moderadores, y que los videos dañinos se encontraban junto a otros más positivos sobre la recuperación. Por ejemplo, las personas han usado #EdSheeranDisorder (el trastorno de Ed Sheeran) para etiquetar publicaciones sobre trastornos alimentarios mientras parecía que hablaban sobre el cantante de pop.
TikTok rechazó los hallazgos del informe.
Mahsau Cullinane, una vocera de TikTok, declaró: “Esta actividad y la experiencia resultante no reflejan el comportamiento genuino ni las experiencias de visualización de personas reales. De manera periódica, consultamos a expertos en salud, retiramos violaciones a nuestras políticas y brindamos acceso a recursos de apoyo para cualquier persona que los necesite”.
Cullinane añadió que el objetivo de la compañía era construir un servicio para toda la gente, incluyendo a “personas que eligen compartir sus procesos de recuperación o educar a otros sobre estos temas importantes”.
El informe surge en un momento delicado para TikTok, que es propiedad de la compañía china ByteDance. Mientras TikTok continúa elevándose en popularidad (la compañía asegura que tiene más de mil millones de usuarios), algunos legisladores estadounidenses amenazan con bloquearla, para lo que aducen preocupaciones de seguridad nacional.
También ha habido inquietudes crecientes sobre el contenido que TikTok muestra a los adolescentes. Una investigación de 2021 de The Wall Street Journal descubrió que los adolescentes eran inundados con videos peligrosos sobre pérdida de peso, incluyendo “consejos” sobre cómo consumir menos de 300 calorías al día. Mientras tanto, el programa informativo “60 minutes” informó hace poco que a los usuarios jóvenes de Douyin, la versión de ByteDance de TikTok que está disponible en China, se les presenta contenido patriótico y educacional, y que además el servicio está limitado a solo 40 minutos al día.
TikTok no es la única plataforma de redes sociales que enfrenta un escrutinio por su influencia en los jóvenes. Este año, un forense en Inglaterra determinó que Instagram y otras plataformas de redes sociales contribuyeron al suicidio en 2017 de Molly Russell, de 14 años. El año pasado, documentos filtrados por Frances Haugen, exempleada de Meta, que es la empresa propietaria de Instagram, detallaron investigaciones internas de la compañía que indicaban que las adolescentes sufrían problemas de imagen corporal cuando usaban Instagram. Esta red social ha tenido problemas para controlar el contenido que promueve los trastornos alimentarios.
Ahmed señaló que TikTok requería más supervisión y sensibilización de parte de los padres y los creadores de políticas, así como transparencia sobre sus algoritmos. El Centro para Contrarrestar el Odio Digital creó una guía para los padres sobre la plataforma con Ian Russell, el padre de Molly, quien supervisa una fundación creada en nombre de su hija.