Hoje estamos a publicar o nosso Community Standards Enforcement Report para o terceiro trimestre de 2020. Este relatório fornece métricas sobre como aplicamos nossas políticas de julho a setembro e inclui métricas em 12 políticas no Facebook e 10 políticas na Instagram.

O que há de novo: Prevalência de Discurso de Ódio

Pela primeira vez, estamos incluindo a prevalência de discurso de ódio no Facebook globalmente. No terceiro trimestre de 2020, a prevalência do discurso de ódio foi de 0,10% – 0,11% ou 10 a 11 visualizações de discurso de ódio para cada 10.000 visualizações de conteúdo. Devido aos nossos investimentos em IA, temos sido capazes de remover mais discursos de ódio e encontrar mais deles de forma pró-ativa antes que os usuários os denunciem para nós. Nossas métricas de fiscalização neste trimestre, incluindo a quantidade de conteúdo de discursos de ódio que encontramos proativamente e a quantidade de conteúdo sobre o qual tomamos medidas, indicam que estamos progredindo na captura de conteúdo prejudicial. A prevalência, por outro lado, estima a percentagem de vezes que as pessoas vêem conteúdo violador na nossa plataforma. Leia mais sobre nosso trabalho no discurso do ódio.

Enforcement Action Highlights

Embora a pandemia COVID-19 continue a perturbar nossa força de trabalho de revisão de conteúdo, estamos vendo algumas métricas de fiscalização voltarem aos níveis pré-pandêmicos. Nossas taxas proativas de detecção de violação de conteúdo estão acima do Q2 na maioria das políticas, devido a melhorias na IA e à expansão de nossas tecnologias de detecção para mais idiomas. Mesmo com uma capacidade de revisão reduzida, ainda priorizamos o conteúdo mais sensível para as pessoas analisarem, o que inclui áreas como suicídio e automutilação e nudez infantil.

No Facebook no Q3, tomamos medidas em:

  • 22,1 milhões de peças de conteúdo de fala de ódio, das quais cerca de 95% foram proativamente identificadas
  • 19.2 milhões de peças de conteúdo violento e gráfico (de 15 milhões no Q2)
  • 12,4 milhões de peças de conteúdo de nudez infantil e exploração sexual (de 9,5 milhões no Q2)
  • 3,5 milhões de peças de conteúdo de intimidação e assédio (de 2,4 milhões no Q2).

No Instagram no Q3, nós tomamos medidas em:

  • 6,5 milhões de peças de conteúdo de fala de ódio (acima dos 3,2 milhões no Q2), dos quais cerca de 95% foram identificados proativamente (acima dos cerca de 85% no Q2)
  • 4.1 milhão de peças de conteúdo violento e gráfico (de 3,1 milhões no 2T)
  • 1,0 milhões de peças de conteúdo de nudez infantil e exploração sexual (de 481.000 no 2T)
  • 2.6 milhões de peças de conteúdo de intimidação e assédio (de 2,3 milhões no Q2)
  • 1,3 milhões de peças de suicídio e automutilação (de 277.400 no Q2)

O aumento da nossa taxa de detecção proativa de fala de ódio na Instagram foi impulsionado em parte pelo aperfeiçoamento da nossa tecnologia de detecção proativa para os idiomas inglês, árabe e espanhol, e pela expansão da tecnologia de automação. Esperamos flutuações nestes números enquanto continuamos a nos adaptar aos desafios da força de trabalho relacionados à COVID.

Partilhar Políticas Adicionais Publicamente

Hoje estamos atualizando nosso site de Normas Comunitárias para incluir políticas adicionais que requerem mais contexto e nem sempre podem ser aplicadas em escala. Essas políticas frequentemente requerem equipes especializadas para coletar mais informações sobre um determinado assunto, a fim de tomar decisões. Por exemplo, exigimos informações adicionais, normalmente de um membro da família, antes de remover a conta de uma pessoa falecida. Também podemos usar informações adicionais de parceiros de confiança com experiência local ou fontes de notícias públicas para nos ajudar a tomar decisões de aplicação para estas políticas matizadas.

Several destas políticas já foram anunciadas anteriormente. Por exemplo, nossa política que proíbe a publicação de desinformação e rumores não verificáveis que contribuam para o risco de violência iminente ou danos físicos, e nossa política de adicionar um rótulo de alerta a conteúdos sensíveis como imagens publicadas por uma agência de notícias que retratam a nudez infantil no contexto de fome, genocídio, crimes de guerra ou crimes contra a humanidade. Embora essas políticas não sejam novas, estamos compartilhando mais detalhes hoje para sermos ainda mais transparentes sobre nossas práticas de aplicação da lei. Seguindo em frente, assim como fazemos com nossas políticas em escala, continuaremos a atualizar publicamente os Padrões Comunitários mensalmente à medida que forem desenvolvidas novas políticas que exijam contexto adicional.

Continuaremos melhorando nossa tecnologia e nossos esforços de fiscalização para remover conteúdo nocivo de nossa plataforma e manter as pessoas seguras enquanto usam nossos aplicativos.

O Relatório de Aplicação dos Padrões Comunitários é publicado em conjunto com nosso Relatório Semestral de Transparência que compartilha números sobre solicitações governamentais de dados de usuários, restrições de conteúdo com base na legislação local, tomadas de propriedade intelectual e interrupções da Internet.

Deixe uma resposta

O seu endereço de email não será publicado.