Facebook elimina 21 millones de desnudos de adultos en 3 meses

Miércoles, 16 May, 2018

Entre los números más destacados, la compañía informa que eliminó 837 millones de contenidos spam y 583 millones de cuentas falsas, además de 2.5 millones de contenidos que contenían discursos de odio, 1.9 millones de publicaciones con propaganda terrorista, 3.4 millones de publicaciones que incluían violencia gráfica y 2.1 millones de piezas de material que incluían desnudez adulta y actividad sexual. Dieron de baja o colocaron advertencias sobre cerca de 3,5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por su tecnología antes de que fueran reportadas. Y respecto a discursos de odio, se eliminaron 2.5 millones de posteos.

Este martes la red social Facebook presentó este martes su primer informe de Aplicación de Normas Comunitarias como parte de sus esfuerzos por restaurar la imagen y reputación de la plataforma social, que se encuentra haciendo frente a las noticias falsas así como los escándalos de privacidad.

Mark Zuckerberg durante la conferencia de desarrolladores F8, reconoció los abusos que se realizar a través de la plataforma de Facebook.

El informe comprende el período de normas establecidas entre octubre de 2017 y marzo de 2018, y refleja que la red social eliminó 837 millones de mensajes no deseados durante el primer trimestre de 2018, casi el 100% de ellos hallados y borrados antes de que los usuarios los reportasen. Estas nuevas tecnologías resultan claves para encontrar una mayor cantidad de contenido inapropiado, de forma más rápida, y a una escala muy superior a la humana. Y desactivaron alrededor de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas, según remarcan en el documento.

"Puede ser que un contenido cuente con muchas visualizaciones pero tenga un nivel de severidad bajo, mientras que hay otros que son vistos pocas veces pero tienen una severidad alta", ejemplificó sobre la dinámica de trabajo Alex Schultz, vicepresidente de Analítica de Datos de Facebook.

Para casos como violencia gráfica y discurso de odio, "nuestra tecnología aún no funciona de manera óptima y por eso todavía es necesaria la revisión final del equipo de moderadores" humanos, sostuvo Schultz.

Un 96% de este material fue detectado y marcado incluso antes de que fuera reportado gracias al aprendizaje automático (machine learning), la visión por computadora y la inteligencia artificial.