Jak wyjaśnia w oficjalnym komunikacie Monika Bickert, VP of Global Product Management Facebooka, platforma zawsze stara się podejmować decyzje o blokowaniu materiałów dbając z jednej strony o bezpieczeństwo, z drugiej zaś o swobodę wypowiedzi użytkowników. Bickert podkreśliła także, że obecnie nad przestrzeganiem standardów społeczności czuwa rozbudowany zespół pracowników Facebooka w 11 biurach firmy na świecie. Sprawdzane są treści zamieszczane w ponad 40 różnych językach. Zespół ten stale się rozrasta sprostać nowym wyzwaniom.
Jednocześnie serwis ujawnił swoje wewnętrzne wytyczne, które mają wspierać firmę w egzekwowaniu tych zasad. Facebook używa kombinacji sztucznej inteligencji oraz bezpośrednich zgłoszeń od użytkowników, by wykrywać posty, zdjęcia lub inne treści naruszające standardy społeczności. Raporty są analizowane przez zespół Community Operations, który pracuje 24 godziny na dobę przez 7 dni w tygodniu. Aktualnie Facebook zatrudnia 7,5 tys. moderatorów, która to liczba jest większa o ponad 40 proc. niż rok temu.
Najbliższy rok ma być okresem rozwoju procedur odwołań od decyzji podjętych przez moderatorów treści. Pierwszym krokiem jest uruchomienie funkcji przekazania do ponownego sprawdzenia postów usuniętych za nagość, ich charakter seksualny, mowę nienawiści lub drastyczną przemoc. Użytkownik po otrzymaniu informacji, że jego post został usunięty otrzyma możliwość wysłania prośby o powtórną weryfikację. Prośba będzie weryfikowana przez zespół Community Operations w ciągu 24 godzin. Za jej rozpatrzenie zawsze odpowiada człowiek, nie sztuczna inteligencja. Jeżeli powtórna weryfikacja potwierdzi pomyłkę, post, zdjęcie lub film zostanie przywrócony.
Komentarze