Przez ostatnie kilka dni Instagram testuje nową funkcję. Sztuczna inteligencja będzie odpowiadać za walkę z cyberprzemocą.
Użytkownicy Instagrama często padają ofiarami cyberprzemocy i bywają nękani przez innych internautów. By temu przeciwdziałać twórcy aplikacji postanowili zbadać problem i podjąć działania w celu ograniczenia tych negatywnych zjawisk. Proponowane przez nich rozwiązanie oparte jest na uczeniu maszynowym, które informuje użytkowników o tym, że wprowadzana przez nich treści może być odebrana jako ofensywna.
Działać to będzie w ten sposób, że gdy użytkownik wpisze obraźliwą treść, aplikacja zada mu pytanie „jesteś pewien, że chcesz to opublikować?”. Dodawanie komentarza zostanie wstrzymane, a użytkownik będzie mógł go cofnąć. Taka interwencja ma pomóc użytkownikom o negatywnym nastawieniu zreflektować się i skłonić do wycofania hejterskiej treści. Jednocześnie odbiorca nie otrzyma w ogóle powiadomienia o szkodliwym komentarzu. Bardziej wnikliwi będą mogli się też dowiedzieć, dlaczego określony komentarz jest niewłaściwy. Mechanizm ten może nie wydawać się szczególnie skuteczną bronią, jednak da użytkownikom dodatkową okazję na zastanowienie się przed publikacją obraźliwego komentarza.
Druga z wprowadzanych przez Instagram funkcji jest bardziej bezpośrednią metodą walki z uporczywym nękaniem w sieci. Chodzi o „Restrict”, która ogranicza widoczność komentarzy dodanych przez osobę nękającą. Kluczową różnicą względem dostępnych obecnie rozwiązań jest to, że dzieje się to bez wiedzy hejtera – obraźliwe komentarze widoczne są tylko dla ich autora, a nie innych użytkowników.
Komentarze