
fot. Shutterstock / Instagram / X
Rzecznik Meta poinformował, że firma naprawiła
błąd
, przez który użytkownicy
Instagrama
widzieli mnóstwo drastycznych i brutalnych treści. Przyznał, że algorytm polecał im reelsy, których "nie powinni oglądać".
Wczoraj użytkownicy Instagrama zaczęli narzekać w mediach społecznościowych na falę
rolek
zawierających m.in.
sceny przemocy, śmierci czy treści sek*ualne
. Przykłady takich reelsów pokazywano na Twitterze, duży wątek pojawił się również na
Reddicie
. Wśród nich były m.in. filmiki ukazujące strzelaniny, napady z bronią, tragiczne śmierci czy brutalne bijatyki. Niebezpieczne treści znajdowały się głównie w zakładce rekomendowanych rolek.
Wielu użytkowników alarmowało, że niebezpieczne rolki wyświetlają im się mimo włączonej
funkcji kontroli wrażliwych treści
. Zgodnie z polityką Meta przed wideo czy zdjęciami zawierającymi sceny przemocy czy drastyczne ujęcia, użytkownicy powinni zobaczyć
planszę
z ostrzeżeniem. Części z nich wczoraj ta opcja jednak nie działała. Inni pokazywali, że w swoim proponowanym feedzie mają wyłącznie treści z ostrzegającymi planszami.
Rzecznik Meta, właściciela Instagrama i Facebooka, przyznał, że doszło do "błędu", w wyniku którego użytkownikom proponowano treści, które "nie powinny być polecane".
"Naprawiliśmy
błąd
, który powodował, że niektórzy użytkownicy widzieli w swoim kanale Instagram Reels treści, które nie powinny być polecane.
Przepraszamy za pomyłkę
" - przekazano w komunikacie przesłanym stacji CNBC.
Przypomnijmy, że na początku stycznia Mark Zuckerberg ogłosił
zmianę podejścia Meta
do moderacji treści, co ma „przywrócić wolność słowa” na Instagramie i Facebooku. Wśród zmian ma być m.in. rezygnacja z fact-checkerów i zastąpienie ich tzw. Community Notes, które znamy z platformy X.