Heute veröffentlichen wir unseren Bericht zur Durchsetzung der Gemeinschaftsstandards für das dritte Quartal 2020. Dieser Bericht enthält Kennzahlen dazu, wie wir unsere Richtlinien von Juli bis September durchgesetzt haben, und umfasst Kennzahlen zu 12 Richtlinien auf Facebook und 10 Richtlinien auf Instagram.
Was ist neu: Verbreitung von Hassrede
Zum ersten Mal geben wir die Verbreitung von Hassrede auf Facebook weltweit an. Im 3. Quartal 2020 lag die Prävalenz von Hassreden bei 0,10 % – 0,11 % oder 10 bis 11 Aufrufe von Hassreden pro 10.000 Aufrufe von Inhalten. Dank unserer Investitionen in KI konnten wir mehr Hassreden entfernen und mehr davon proaktiv finden, bevor Nutzer sie uns melden. Unsere Durchsetzungskennzahlen in diesem Quartal, einschließlich der Anzahl der Hassreden, die wir proaktiv gefunden haben, und der Anzahl der Inhalte, bei denen wir Maßnahmen ergriffen haben, zeigen, dass wir Fortschritte beim Aufspüren schädlicher Inhalte machen. Die Prävalenz hingegen schätzt den Prozentsatz der Personen, die verletzende Inhalte auf unserer Plattform sehen. Lesen Sie mehr über unsere Arbeit zur Bekämpfung von Hassreden.
Highlights der Durchsetzungsmaßnahmen
Während die COVID-19-Pandemie unsere Mitarbeiter bei der Überprüfung von Inhalten weiterhin beeinträchtigt, erreichen einige Durchsetzungskennzahlen wieder das Niveau von vor der Pandemie. Unsere proaktiven Erkennungsraten für verletzende Inhalte sind im Vergleich zum zweiten Quartal bei den meisten Richtlinien gestiegen, was auf Verbesserungen bei der künstlichen Intelligenz und die Ausweitung unserer Erkennungstechnologien auf weitere Sprachen zurückzuführen ist. Auch mit einer reduzierten Überprüfungskapazität priorisieren wir immer noch die sensibelsten Inhalte, die überprüft werden müssen, darunter Bereiche wie Selbstmord und Selbstverletzung sowie Nacktheit von Kindern.
Im dritten Quartal haben wir auf Facebook Maßnahmen ergriffen:
- 22,1 Millionen Hassreden, von denen etwa 95 % proaktiv erkannt wurden
- 19.2 Millionen gewalttätige und grafische Inhalte (gegenüber 15 Millionen im 2. Quartal)
- 12,4 Millionen Inhalte über Nacktheit von Kindern und sexuelle Ausbeutung (gegenüber 9,5 Millionen im 2. Quartal)
- 3,5 Millionen Inhalte über Mobbing und Belästigung (gegenüber 2,4 Millionen im 2. Quartal).
Auf Instagram haben wir im dritten Quartal Maßnahmen ergriffen:
- 6,5 Millionen Hassreden (von 3,2 Millionen im zweiten Quartal), von denen etwa 95 % proaktiv identifiziert wurden (von etwa 85 % im zweiten Quartal)
- 4.1 Mio. gewalttätige und grafische Inhalte (gegenüber 3,1 Mio. im 2. Quartal)
- 1,0 Mio. Inhalte über Nacktheit von Kindern und sexuelle Ausbeutung (gegenüber 481.000 im 2. Quartal)
- 2.6 Millionen Mobbing- und Belästigungsinhalte (von 2,3 Millionen im 2. Quartal)
- 1,3 Millionen Selbstmord- und Selbstverletzungsinhalte (von 277.400 im 2. Quartal)
Der Anstieg unserer proaktiven Erkennungsrate für Hassreden auf Instagram wurde zum Teil durch die Verbesserung unserer proaktiven Erkennungstechnologie für die englische, arabische und spanische Sprache und die Ausweitung der Automatisierungstechnologie erreicht. Wir erwarten Schwankungen bei diesen Zahlen, da wir uns weiterhin an die COVID-bedingten personellen Herausforderungen anpassen.
Zusätzliche Richtlinien öffentlich zugänglich machen
Heute aktualisieren wir unsere Website zu den Community-Standards, um zusätzliche Richtlinien aufzunehmen, die mehr Kontext erfordern und nicht immer in großem Umfang angewendet werden können. Diese Richtlinien erfordern oft, dass spezialisierte Teams mehr Informationen zu einem bestimmten Thema sammeln, um Entscheidungen treffen zu können. So benötigen wir beispielsweise zusätzliche Informationen, in der Regel von einem Familienmitglied, bevor wir das Konto einer verstorbenen Person löschen. Wir können auch zusätzliche Informationen von vertrauenswürdigen Partnern mit lokalem Fachwissen oder öffentlichen Nachrichtenquellen nutzen, um uns bei der Durchsetzung dieser differenzierten Richtlinien zu helfen.
Einige dieser Richtlinien wurden bereits zuvor angekündigt. Zum Beispiel unsere Richtlinie, die das Posten von Fehlinformationen und nicht überprüfbaren Gerüchten verbietet, die zur Gefahr drohender Gewalt oder körperlicher Schäden beitragen, und unsere Richtlinie, sensible Inhalte mit einem Warnhinweis zu versehen, z. B. Bilder, die von einer Nachrichtenagentur gepostet werden und Nacktheit von Kindern im Zusammenhang mit Hungersnot, Völkermord, Kriegsverbrechen oder Verbrechen gegen die Menschlichkeit zeigen. Diese Richtlinien sind zwar nicht neu, aber wir geben heute weitere Einzelheiten bekannt, um unsere Durchsetzungspraktiken noch transparenter zu machen. Wie bei unseren skalierten Richtlinien werden wir auch in Zukunft die Community Standards monatlich öffentlich aktualisieren, wenn neue Richtlinien entwickelt werden, die zusätzlichen Kontext erfordern.
Wir werden unsere Technologie und unsere Durchsetzungsbemühungen weiter verbessern, um schädliche Inhalte von unserer Plattform zu entfernen und die Menschen bei der Nutzung unserer Apps zu schützen.
Der Bericht zur Durchsetzung der Community-Standards wird in Verbindung mit unserem halbjährlichen Transparenzbericht veröffentlicht, der Zahlen zu staatlichen Anfragen nach Nutzerdaten, Inhaltsbeschränkungen auf der Grundlage lokaler Gesetze, Takedowns von geistigem Eigentum und Internetunterbrechungen enthält.