Oggi pubblichiamo il nostro Community Standards Enforcement Report per il terzo trimestre del 2020. Questo rapporto fornisce metriche su come abbiamo applicato le nostre politiche da luglio a settembre e include metriche su 12 politiche su Facebook e 10 politiche su Instagram.

Cosa c’è di nuovo: Prevalenza del discorso dell’odio

Per la prima volta, stiamo includendo la prevalenza del discorso dell’odio su Facebook a livello globale. Nel Q3 2020, la prevalenza dei discorsi d’odio era dello 0,10% – 0,11% o da 10 a 11 visualizzazioni di discorsi d’odio per ogni 10.000 visualizzazioni di contenuti. Grazie ai nostri investimenti in AI, siamo stati in grado di rimuovere più hate speech e trovarne di più in modo proattivo prima che gli utenti ce lo segnalino. Le nostre metriche di applicazione di questo trimestre, tra cui la quantità di contenuti di incitamento all’odio che abbiamo trovato in modo proattivo e la quantità di contenuti su cui abbiamo agito, indicano che stiamo facendo progressi nella cattura di contenuti dannosi. La prevalenza, invece, stima la percentuale di volte in cui le persone vedono contenuti violenti sulla nostra piattaforma. Leggi di più sul nostro lavoro sui discorsi d’odio.

In evidenza le azioni di applicazione

Mentre la pandemia di COVID-19 continua a sconvolgere la nostra forza lavoro di revisione dei contenuti, stiamo vedendo alcune metriche di applicazione tornare ai livelli pre-pandemia. I nostri tassi di rilevamento proattivo dei contenuti violati sono aumentati rispetto al secondo trimestre nella maggior parte delle politiche, grazie ai miglioramenti dell’intelligenza artificiale e all’espansione delle nostre tecnologie di rilevamento in più lingue. Anche con una capacità di revisione ridotta, continuiamo a dare la priorità ai contenuti più sensibili da rivedere, che includono aree come il suicidio e l’autolesionismo e la nudità infantile.

Su Facebook nel Q3, abbiamo preso provvedimenti su:

  • 22,1 milioni di contenuti di incitamento all’odio, circa il 95% dei quali sono stati identificati in modo proattivo
  • 19.2 milioni di pezzi di contenuti violenti e grafici (rispetto ai 15 milioni del Q2)
  • 12,4 milioni di pezzi di contenuti di nudità infantile e sfruttamento sessuale (rispetto ai 9,5 milioni del Q2)
  • 3,5 milioni di pezzi di contenuti di bullismo e molestie (rispetto ai 2,4 milioni del Q2).

Su Instagram nel Q3, siamo intervenuti su:

  • 6,5 milioni di contenuti di incitamento all’odio (rispetto ai 3,2 milioni del Q2), di cui circa il 95% è stato identificato in modo proattivo (rispetto all’85% circa del Q2)
  • 4.1 milione di pezzi di contenuti violenti e grafici (rispetto ai 3,1 milioni del Q2)
  • 1,0 milioni di pezzi di nudità infantile e sfruttamento sessuale (rispetto ai 481.000 del Q2)
  • 2.6 milioni di pezzi di contenuti di bullismo e molestie (da 2,3 milioni nel Q2)
  • 1,3 milioni di pezzi di suicidio e autolesionismo (da 277.400 nel Q2)

L’aumento del nostro tasso di rilevamento proattivo per i discorsi di odio su Instagram è stato guidato in parte dal miglioramento della nostra tecnologia di rilevamento proattivo per le lingue inglese, arabo e spagnolo e dall’espansione della tecnologia di automazione. Ci aspettiamo fluttuazioni in questi numeri mentre continuiamo ad adattarci alle sfide della forza lavoro legate a COVID.

Condivisione pubblica di ulteriori politiche

Oggi stiamo aggiornando il nostro sito web sugli standard comunitari per includere ulteriori politiche che richiedono più contesto e non sempre possono essere applicate su scala. Queste politiche spesso richiedono team specializzati per raccogliere più informazioni su una data questione al fine di prendere decisioni. Per esempio, richiediamo informazioni aggiuntive, in genere da un membro della famiglia, prima di rimuovere l’account di una persona deceduta. Possiamo anche utilizzare ulteriori informazioni da partner fidati con esperienza locale o fonti di notizie pubbliche per aiutarci a prendere decisioni di applicazione per queste politiche sfumate.

Alcune di queste politiche sono state annunciate prima. Per esempio, la nostra politica che vieta di pubblicare informazioni errate e voci non verificabili che contribuiscono al rischio di violenza imminente o danni fisici, e la nostra politica di aggiungere un’etichetta di avvertimento ai contenuti sensibili come le immagini pubblicate da un’agenzia di stampa che ritrae nudità di bambini nel contesto di carestie, genocidi, crimini di guerra o crimini contro l’umanità. Anche se queste politiche non sono nuove, stiamo condividendo più dettagli oggi per essere ancora più trasparenti sulle nostre pratiche di applicazione. Andando avanti, proprio come facciamo con le nostre politiche in scala, continueremo ad aggiornare pubblicamente gli Standard della Comunità mensilmente come nuove politiche sono sviluppate che richiedono un contesto aggiuntivo.

Continueremo a migliorare la nostra tecnologia e gli sforzi di applicazione per rimuovere i contenuti dannosi dalla nostra piattaforma e mantenere le persone al sicuro mentre utilizzano le nostre applicazioni.

Il Community Standards Enforcement Report viene pubblicato insieme al nostro biennale Transparency Report che condivide i numeri sulle richieste governative di dati degli utenti, sulle restrizioni dei contenuti in base alle leggi locali, sui takedown di proprietà intellettuale e sulle interruzioni di internet.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.