Grazie all'Intelligenza artificiale, Facebook è riuscito ad individuare e rimuovere il 97% dei contenuti d'odio, prima che qualsiasi utente li segnalasse.
Nel 2017 la percentuale era al 24%; alla fine del 2019 dell’80,5% e, nel trimestre precedente, al 94%. E' uno dati che emerge dal Report periodico sull'applicazione degli Standard della community che mostra come la società ha affrontato questo tipo di contenuti.
Riguardo altri due argomenti sensibili, bullismo e molestie sessuali l'individuazione grazie all'AI è passata su Facebook dal 26% nel terzo trimestre 2020 al 49% nel quarto trimestre, e su Instagram dal 55% all'80%.
"Stiamo lentamente proseguendo nel reintegrare la nostra forza lavoro addetta alla revisione dei contenuti a livello globale - spiega Guy Rosen, VP of Integrity di Facebook - anche se prevediamo che quest'area sarà influenzata dal Covid-19 fino a quando un vaccino non sarà ampiamente disponibile. A causa della limitata capacità, diamo priorità ai contenuti più dannosi, come i contenuti di suicidio e autolesionismo, che vengono esaminati dai nostri team".
Per il 2021 la società, "intende condividere ulteriori metriche su Instagram e aggiungere nuove categorie di policy su Facebook" e continuerà "a ottimizzare le tecnologie e gli sforzi per tenere i contenuti dannosi fuori dalle app". (ANSA).