Fot.: Solen Feyissa - Unsplash
Według
Nicka Clegga
, dyrektora ds. globalnych w Meta, koncern omyłkowo
usuwa zbyt wiele treści
ze swoich platform. Jak wyjaśnił podczas konferencji prasowej, wskaźnik błędów w
moderacji
"jest nadal zbyt wysoki". Zobowiązał się też do "poprawy precyzji i dokładności" podejmowanych w tej sprawie decyzji.
- Wiemy, że podczas egzekwowania naszych zasad wskaźniki błędów są nadal zbyt wysokie, co utrudnia swobodę wypowiedzi, którą chcieliśmy umożliwić - powiedział Clegg, - Zbyt często nieszkodliwe treści są usuwane lub ograniczane, a zbyt wiele osób jest niesprawiedliwie karanych - dodał.
Clegg tłumaczył, że firma żałuje przede wszystkim zbyt pochopnego usuwania postów odnoszących się
pandemii COVID-19
. W sierpniu na ten sam temat wypowiedział się również
Mark Zuckerberg
, dyrektor generalny Meta Platforms. Mężczyzna powiedział wówczas, że rząd
Joe Bidena
w 2021 roku wywierał presję na koncern, aby zmusić pracowników do "cenzurowania" treści związanych z wirusem.
Przykłady błędów w moderacji pojawiły się ostatnio m.in. na
Instagramie
oraz platformie
Threads
. Użytkownicy skarżyli się na to, że ich konta były usuwane lub ograniczane za to, że wklejali
linki do artykułów na kontrowersyjne tematy
. Moderacja serwisów miała również blokować dostęp do kont tym użytkownikom, którzy wyglądali bardzo młodo, niemal jak dzieci.
W lipcu firma publicznie przeprosiła za błędy w moderacji po tym, jak jej systemy zablokowały posty ze zdjęciami prezydenta-elekta
Donalda Trumpa
, który przeżył próbę zamachu. Usuwane miały być również te zdjęcia, które zostały zmanipulowane w taki sposób, aby mieć wrażenie, że agenci Secret Service uśmiechali się po postrzale.
Clegg odniósł się do zasad moderacji jako do rozwiązania, które
może ewoluować
. Sugeruje to, że być może Meta wprowadzi istotne zmiany w zasadach kontrolowania treści udostępnianych przez użytkowników.