Le puede interesar
“La cantidad de cuentas sobre las que tomamos medidas aumentó debido a los ataques automatizados de actores maliciosos que intentan crear grandes volúmenes de cuentas al mismo tiempo”, dijo Facebook.
Estas cifras corresponden a cuentas que Facebook afirma suprimir inmediatamente, y que, por tanto, no son contabilizadas entre sus usuarios activos. Según la red social, se trata de cuentas bastante fáciles de identificar y eliminar antes de que generen “perjuicios”.
Sin embargo, la red social estima que un 5% de las cuentas activas actualmente en la plataforma son “falsas”, de un total de 2 mil 400 millones de usuarios activos mensuales.
Las cuentas “falsas” pueden usarse, por ejemplo, para hacer circular campañas de desinformación con fines de manipulación política, uno de los temas que ha generado duras críticas a la red social en los últimos dos años.
Lea también | ¿Por qué Mark Zuckerberg asegura que en el futuro Facebook funcionará por telepatía?
La cantidad de cuentas que eliminamos se incrementó a causa de los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo, Guy Rosen, vicepresidente de Facebook para Integridad.
El grupo anuncia regularmente operaciones de eliminación de cuentas activas consideradas “inauténticas”.
Este jueves publicó un informe que detalla las medidas que ha tomado contra las cuentas “falsas”, pero también contra los contenidos que violan sus reglas de uso sobre la desnudez, la violencia, el sexo, el acoso y la promoción de drogas o armas, la apología del terrorismo.
Discurso de odio
En cuanto al llamado “discurso del odio” dirigido a grupos sociales específicos, la empresa que dirige Mark Zuckerberg se felicitó por haber incrementado la cantidad de contenidos retirados de los 3.3 millones con que cerró el último trimestre del 2018 a los 4 millones en los primeros tres meses del 2019.
La firma explicó que de estos 4 millones de “mensajes de odio” publicados, un 65.4% fueron retirados tras ser detectados por los sistemas de inteligencia artificial de la propia compañía antes de que nadie los denunciase, mientras que el resto fueron eliminados al recibir denuncias por parte de otros usuarios.
“Las distintas culturas del mundo entienden la libertad de expresión de formas distintas. Es imposible construir un único sistema de moderación que funcione en todo el mundo”, dijo Zuckerberg.
La compañía se encuentra en el punto de mira con respecto a cómo gestiona la publicación de contenidos falsos, de carácter sexual, de odio o violentos por parte de usuarios después del tiroteo en dos mezquitas de Nueva Zelanda el pasado marzo que se saldó con la vida de 51 personas y que fue retransmitido en directo por Facebook Live.
Contenido relacionado:
> ¡Atención! Facebook podría restringir la transmisión en vivo a usuarios en Guatemala
> De esta forma respondió Facebook a las críticas por la privacidad
> Conozca el plan de Facebook para gestionar las cuentas de los usuarios que mueren