23 de septiembre de 2020
12 de agosto de 2020

Facebook detectó menos contenidos de suicidio y explotación infantil por la falta de revisores por la Covid

Facebook detectó menos contenidos de suicidio y explotación infantil por la falta de revisores por la Covid
Logotipo de Facebook - PIXABAY - ARCHIVO

MADRID, 12 Ago. (Portaltic/EP) -

Facebook detectó menos publicaciones en su plataforma homónima e Instagram con contenido prohibido relacionado con el suicidio, autolesiones y explotación infantil durante el segundo trimestre de 2020, debido a la falta de revisores humanos por el coronavirus.

Así lo ha asegurado la compañía estadounidense en su último informe de aplicación de políticas comunitarias, que ha publicado este martes, que explica que Facebook debió enviar a casa a sus revisores de contenido en marzo y que confió más en la tecnología para la revisión de contenido.

Esta medida ha reducido los niveles de actuación contra las publicaciones en Facebook e Instagram relacionadas con el suicidio, las autolesiones, la desnudez infantil o la explotación sexual. A pesar de este descenso, la compañía fundada por Mark Zuckerberg ha asegurado haber "priorizado e intervenido en el contenido más dañino" de esta categoría.

Asimismo, la cantidad de denuncias también ha sido "mucho menor" durante el segundo trimestre debido a que Facebook reconoce que no siempre ha podido ofrecerlas. La compañía tampoco ha ofrecido, como es habitual en sus informes, los datos de prevalencia de estas publicaciones.

"A medida que la pandemia de la Covid-19 evoluciona, seguiremos adaptando nuestro proceso de revisión de contenidos y trabajando para mejorar nuestra tecnología y sumar más revisores de contenido", ha asegurado Facebook en el informe.

MEJORAS EN OTROS CAMPOS

En el resto de campos, las tecnologías automáticas de revisión sí han presentado mejores resultados, como es el caso de las publicaciones con discursos del odio, cuya tasa de detección proactiva aumentó 6 puntos entre abril y junio, de 89 a 95 por ciento.

Solo en Facebook, la cantidad de publicaciones sobre las que se tomaron medidas por discurso del odio aumentó de 9,6 millones en el primer trimestre a 22,5 millones en el segundo, debido a la ampliación de la tecnología de automatización a español, árabe e indonesio y la mejora de la tecnología de detección en inglés en el primer trimestre.

En Instagram, por su parte, la tasa de detección proactiva de discursos del odio aumentó 39 puntos, de 45 a 84 por ciento y la cantidad de contenido eliminado aumentó de 808.900 en el primer trimestre de 2020 a 3,3 millones en el segundo -tras la ampliación de las tecnologías de detección en inglés y español.

Desde octubre de 2019, Facebook ha llevado a cabo 14 disrupciones de redes estratégicas para eliminar 23 organizaciones prohibidas diferentes, más de la mitad de las cuales apoyaban la supremacía blanca.

Otra de las áreas con mejoras ha sido el contenido relacionado con terrorismo. En Facebook, la cantidad de este tipo de contenido sobre la que se actuó aumentó de 6,3 millones en el primer trimestre a 8,7 millones en el segundo.

POLÍTICAS DE IGUALDAD RACIAL

Facebook ha anunciado la creación de dos nuevos equipos -el equipo de igualdad de Instagram y el consejo de productos inclusivos de Facebook- para asegurar que sus productos son "justos e inclusivos", y un consejo asesor de diversidad.

La compañía también ha actualizado sus políticas contra ciertos tipos de discursos de odio implícitos, como el contenido que representa el 'blackface' -personas que se maquillan para representar a gente negra- o estereotipos que afirmen que los judíos controlan el mundo.

Asimismo, Facebook ha anunciado que se someterá a una auditoría independiente de terceros a partir de 2021 para validar los números y las estadísticas que publica en su informe de aplicación de las normas comunitarias.

Para leer más