“No permitiremos más contenido que insulta maliciosamente a alguien por atributos protegidos como su raza, expresión de género u orientación sexual”, dijo Matt Halprin, director de Confianza y Seguridad Global de YouTube, en un comunicado publicado en el blog oficial de la compañía.
Esta nueva reglamentación aplica para usuarios privados, creadores de contenidos en YouTube, en videos y comentarios.
Según la plataforma, solo en el tercer trimestre de 2019 retiró 16 millones de comentarios evaluados como acoso. Se espera que con la puesta en vigencia de las nuevas normas, esa cifra sea aún mayor.
Manipular un arma mientras se habla de alguien o incluso colocar la cara de una persona en un videojuego violento dejarán de ser contenidos aceptables, por ejemplo.
YouTube prevé una serie de medidas punitivas para quienes violen este código de conducta en forma reiterada, lo que incluye por ejemplo desactivar la generación de ingresos de los ofensores o directamente suprimir sus videos.
Google ha invertido desde 2017 grandes sumas en sistemas automatizados con inteligencia artificial y también recursos humanos para reforzar sus procesos de detección y retirada de videos problemáticos.
El énfasis hasta ahora se había puesto sobre todo en mensajes de odio, imágenes de terrorismo y comentarios pedófilos, entre otros.
Ese procedimiento ha hecho que se retiren amenazas e insultos, pero YouTube ha decidido endurecer sus reglas.
“Desde ahora, nuestras políticas irán un paso más allá y no solo prohibirán amenazas explícitas, pero también amenazas veladas o implícitas”, dijo Halprin.
“Esto incluye contenido que simula violencia hacia un individuo o lenguaje que sugiera la ocurrencia de violencia física”, detalló.