Cenzura treści w mediach społecznościowych oparta na sztucznej inteligencji jest w wielu aspektach nieudolna – twierdzi ekspert ds. mediów społecznościowych. Jego zdaniem można to częściowo wytłumaczyć przesadnie amerykańskim podejściem do moderacji.
Coraz częściej problemy użytkowników z usuwaniem treści na platformach społecznościowych wynikają z faktu, że do ich weryfikacji używa się AI. Przekonał się o tym m.in. islandzki rysownik Hugleikur Dagsson, który obawia się, że jego konto na Facebooku zostanie zablokowane. Wiele jego ilustracji zostało już usuniętych z serwisu. Artysta przyznał, że rozumie potrzebę pewnej cenzury, ale zaznaczył, że regulamin firmy stał się w ostatnich latach znacznie bardziej restrykcyjny.
Tryggvi Freyr Elínarson, menedżer i specjalista od mediów społecznościowych, mówił o tym w programie Morgunútvarpið w radiu Rás 2, skupiając się właśnie na rosnącej roli sztucznej inteligencji.
„To trochę niefortunne, że Facebook w zeszłym roku podjął decyzję o ograniczeniu liczby ludzi w dziale moderacji treści i przeniesieniu większej odpowiedzialności na sztuczną inteligencję – choć AI ma swoje zalety, ma też poważne wady” – stwierdził.
Jego zdaniem działanie sztucznej inteligencji można tłumaczyć dwiema kwestiami – sposobem, w jaki została zaprogramowana do wykrywania niepożądanych treści, oraz wartościami, które przyświecały jej twórcom. Jako przykład absurdów Tryggvi Freyr podał sytuację, w której algorytm wielokrotnie oznaczał zdjęcia wystających z wody gołych ramion gości kąpieliska Sky Lagoon jako „treści erotyczne”.
Według niego w polityce moderacji Facebooka widoczne są przesadne, charakterystyczne dla USA reakcje na pewne zjawiska. „Widać w tym wpływ przesadnie ostrożnych amerykańskich norm. Z jednej strony to kraj o ogromnej fascynacji bronią, z drugiej – niezwykle pruderyjny, w którym ludzi łatwo czymś urazić, co przekłada się na algorytmy” – stwierdził ekspert.
Firmy technologiczne od dawna szukają sposobów na moderację treści publikowanych przez użytkowników. Tryggvi Freyr zauważa, że on sam i inni specjaliści od marketingu coraz częściej dostrzegają chaotyczne efekty tej cenzury. Zastanawia się, czy Facebook nie mógłby wzorować się na firmie Google, która w przypadku potencjalnie wrażliwych zdjęć nakłada na nie filtr i daje użytkownikowi wybór, czy ten chce je zobaczyć. Tego rodzaju rozwiązania można by też dostosować do realiów poszczególnych rynków.




