Hoy publicamos nuestro Informe sobre el cumplimiento de las normas comunitarias correspondiente al tercer trimestre de 2020. Este informe proporciona métricas sobre cómo hicimos cumplir nuestras políticas desde julio hasta septiembre e incluye métricas a través de 12 políticas en Facebook y 10 políticas en Instagram.

Novedad: Prevalencia del discurso de odio

Por primera vez, incluimos la prevalencia del discurso de odio en Facebook a nivel global. En el tercer trimestre de 2020, la prevalencia del discurso de odio era del 0,10% al 0,11%, es decir, de 10 a 11 visualizaciones de discurso de odio por cada 10.000 visualizaciones de contenido. Gracias a nuestras inversiones en IA, hemos podido eliminar más discursos de odio y encontrar más de ellos de forma proactiva antes de que los usuarios nos lo denuncien. Nuestras métricas de aplicación de la ley de este trimestre, incluyendo la cantidad de contenido de incitación al odio que encontramos proactivamente y la cantidad de contenido sobre el que tomamos medidas, indican que estamos progresando en la captura de contenido dañino. La prevalencia, por su parte, calcula el porcentaje de veces que la gente ve contenidos infractores en nuestra plataforma. Más información sobre nuestro trabajo en materia de incitación al odio.

Resultados de las acciones de aplicación

Aunque la pandemia de COVID-19 sigue perturbando a nuestro personal de revisión de contenidos, estamos viendo que algunas métricas de aplicación vuelven a los niveles anteriores a la pandemia. Nuestros índices de detección proactiva de contenidos infractores han aumentado con respecto al segundo trimestre en la mayoría de las políticas, debido a las mejoras en la IA y a la ampliación de nuestras tecnologías de detección a más idiomas. Incluso con una capacidad de revisión reducida, seguimos dando prioridad al contenido más sensible para que lo revisen las personas, que incluye áreas como el suicidio y las autolesiones y la desnudez infantil.

En Facebook, en el tercer trimestre, actuamos sobre:

  • 22,1 millones de piezas de contenido de incitación al odio, alrededor del 95% de las cuales se identificaron proactivamente
  • 19.2 millones de contenidos violentos y gráficos (frente a los 15 millones del segundo trimestre)
  • 12,4 millones de contenidos de desnudez infantil y explotación sexual (frente a los 9,5 millones del segundo trimestre)
  • 3,5 millones de contenidos de intimidación y acoso (frente a los 2,4 millones del segundo trimestre).

En Instagram, en el tercer trimestre, actuamos sobre:

  • 6,5 millones de piezas de contenido de incitación al odio (por encima de los 3,2 millones del segundo trimestre), de los cuales aproximadamente el 95% se identificó de forma proactiva (por encima de aproximadamente el 85% del segundo trimestre)
  • 4.1 millón de contenidos violentos y gráficos (frente a los 3,1 millones del segundo trimestre)
  • 1,0 millón de contenidos de desnudez infantil y explotación sexual (frente a los 481.000 del segundo trimestre)
  • 2.6 millones de contenidos de intimidación y acoso (frente a los 2,3 millones del segundo trimestre)
  • 1,3 millones de contenidos de suicidio y autolesiones (frente a los 277.400 del segundo trimestre)

El aumento de nuestra tasa de detección proactiva de discursos de odio en Instagram fue impulsado en parte por la mejora de nuestra tecnología de detección proactiva para los idiomas inglés, árabe y español, y la ampliación de la tecnología de automatización. Esperamos fluctuaciones en estas cifras a medida que continuamos adaptándonos a los desafíos de la fuerza de trabajo relacionados con COVID.

Compartiendo políticas adicionales públicamente

Hoy estamos actualizando nuestro sitio web de normas comunitarias para incluir políticas adicionales que requieren más contexto y no siempre pueden aplicarse a escala. Estas políticas suelen requerir que equipos especializados reúnan más información sobre un tema determinado para poder tomar decisiones. Por ejemplo, requerimos información adicional, normalmente de un familiar, antes de eliminar la cuenta de una persona fallecida. También podemos utilizar información adicional de socios de confianza con experiencia local o fuentes de noticias públicas para ayudarnos a tomar decisiones de aplicación de estas políticas matizadas.

Algunas de estas políticas ya se han anunciado anteriormente. Por ejemplo, nuestra política que prohíbe publicar información errónea y rumores no verificables que contribuyan al riesgo de violencia inminente o daño físico, y nuestra política de añadir una etiqueta de advertencia a los contenidos sensibles, como las imágenes publicadas por una agencia de noticias que muestren desnudos infantiles en el contexto de hambruna, genocidio, crímenes de guerra o crímenes contra la humanidad. Aunque estas políticas no son nuevas, hoy compartimos más detalles para ser aún más transparentes sobre nuestras prácticas de aplicación. De cara al futuro, al igual que hacemos con nuestras políticas escaladas, seguiremos actualizando públicamente las Normas de la Comunidad mensualmente a medida que se desarrollen nuevas políticas que requieran un contexto adicional.

Continuaremos mejorando nuestra tecnología y nuestros esfuerzos de aplicación para eliminar el contenido dañino de nuestra plataforma y mantener a las personas seguras mientras usan nuestras aplicaciones.

El Informe sobre el Cumplimiento de las Normas Comunitarias se publica junto con nuestro Informe de Transparencia bianual en el que se comparten las cifras sobre las solicitudes gubernamentales de datos de los usuarios, las restricciones de contenido basadas en la legislación local, las retiradas de propiedad intelectual y las interrupciones de Internet.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.