Nous publions aujourd’hui notre rapport sur l’application des normes communautaires pour le troisième trimestre de 2020. Ce rapport fournit des mesures sur la façon dont nous avons appliqué nos politiques de juillet à septembre et comprend des mesures à travers 12 politiques sur Facebook et 10 politiques sur Instagram.
Quoi de neuf : Prévalence des discours haineux
Pour la première fois, nous incluons la prévalence des discours haineux sur Facebook à l’échelle mondiale. Au troisième trimestre 2020, la prévalence des discours de haine était de 0,10 % – 0,11 %, soit 10 à 11 vues de discours de haine pour 10 000 vues de contenu. Grâce à nos investissements dans l’IA, nous avons été en mesure de supprimer davantage de discours haineux et d’en trouver davantage de manière proactive avant que les utilisateurs ne nous les signalent. Nos mesures d’application ce trimestre, notamment la quantité de discours haineux que nous avons trouvés de manière proactive et la quantité de contenus sur lesquels nous avons pris des mesures, indiquent que nous progressons dans la capture des contenus préjudiciables. La prévalence, quant à elle, estime le pourcentage de fois où les gens voient du contenu illicite sur notre plateforme. En savoir plus sur notre travail sur les discours haineux.
Les faits marquants des mesures d’application
Alors que la pandémie de COVID-19 continue de perturber nos effectifs de révision de contenu, nous voyons certaines mesures d’application revenir à des niveaux pré-pandémiques. Nos taux de détection proactive de contenu illicite sont en hausse par rapport au deuxième trimestre pour la plupart des politiques, grâce aux améliorations de l’IA et à l’extension de nos technologies de détection à davantage de langues. Même avec une capacité d’examen réduite, nous donnons toujours la priorité au contenu le plus sensible pour que les gens l’examinent, ce qui inclut des domaines tels que le suicide et l’automutilation et la nudité infantile.
Sur Facebook au T3, nous avons pris des mesures sur :
- 22,1 millions de morceaux de contenu de discours haineux, dont environ 95% ont été identifiés de manière proactive
- 19.2 millions de pièces de contenu violent et graphique (contre 15 millions au T2)
- 12,4 millions de pièces de contenu de nudité enfantine et d’exploitation sexuelle (contre 9,5 millions au T2)
- 3,5 millions de pièces de contenu d’intimidation et de harcèlement (contre 2,4 millions au T2).
Sur Instagram au troisième trimestre, nous avons pris des mesures concernant :
- 6,5 millions de contenus de discours haineux (contre 3,2 millions au deuxième trimestre), dont environ 95 % ont été identifiés de manière proactive (contre environ 85 % au deuxième trimestre)
- 4.1 million de pièces de contenu violent et graphique (contre 3,1 millions au T2)
- 1,0 million de pièces de contenu de nudité enfantine et d’exploitation sexuelle (contre 481 000 au T2)
- 2.6 millions de pièces de contenu d’intimidation et de harcèlement (contre 2,3 millions au T2)
- 1,3 million de pièces de suicide et d’automutilation (contre 277 400 au T2)
L’augmentation de notre taux de détection proactive des discours haineux sur Instagram est due en partie à l’amélioration de notre technologie de détection proactive pour les langues anglaise, arabe et espagnole, et à l’expansion de la technologie d’automatisation. Nous nous attendons à des fluctuations dans ces chiffres, car nous continuons à nous adapter aux défis de la main-d’œuvre liés à COVID.
Partager des politiques supplémentaires publiquement
Aujourd’hui, nous mettons à jour notre site Web des normes communautaires pour inclure des politiques supplémentaires qui nécessitent plus de contexte et ne peuvent pas toujours être appliquées à l’échelle. Ces politiques nécessitent souvent que des équipes spécialisées rassemblent plus d’informations sur une question donnée afin de prendre des décisions. Par exemple, nous demandons des informations supplémentaires, généralement à un membre de la famille, avant de supprimer le compte d’une personne décédée. Nous pouvons également utiliser des informations supplémentaires provenant de partenaires de confiance ayant une expertise locale ou de sources d’informations publiques pour nous aider à prendre des décisions d’application pour ces politiques nuancées.
Plusieurs de ces politiques ont déjà été annoncées auparavant. Par exemple, notre politique qui interdit de poster des informations erronées et des rumeurs invérifiables qui contribuent au risque de violence ou de dommage physique imminent, et notre politique visant à ajouter une étiquette d’avertissement aux contenus sensibles tels que les images postées par une agence de presse qui montrent la nudité d’enfants dans le contexte de la famine, du génocide, des crimes de guerre ou des crimes contre l’humanité. Bien que ces politiques ne soient pas nouvelles, nous partageons aujourd’hui plus de détails pour être encore plus transparents sur nos pratiques d’application. À l’avenir, tout comme nous le faisons avec nos politiques échelonnées, nous continuerons à mettre à jour publiquement les normes communautaires tous les mois, à mesure que de nouvelles politiques sont élaborées et nécessitent un contexte supplémentaire.
Nous continuerons à améliorer notre technologie et nos efforts d’application pour supprimer le contenu préjudiciable de notre plate-forme et assurer la sécurité des personnes lorsqu’elles utilisent nos applications.
Le rapport sur l’application des normes communautaires est publié conjointement avec notre rapport semestriel sur la transparence qui partage les chiffres sur les demandes gouvernementales de données des utilisateurs, les restrictions de contenu basées sur la législation locale, les prélèvements de propriété intellectuelle et les perturbations d’Internet.