Algorytmem w dezinformację

Zajmująca się badaniami marketingowymi, analizą i badaniem rynku firma IRCenter poddała analizie treści zawierające słowo/hasztag/zwrot „fake news”, które pojawiły się w ubiegłym roku w polskojęzycznych mediach społecznościowych.

W swoim raporcie IRCeter charakteryzuje najczęściej współwystępujące słowa i konteksty, które pojawiają się w tweetach, bo jak się okazuje, to właśnie serwis Twitter jest najbardziej „fejkogenny”. Od stycznia do grudnia 2017 r. ukazało się 115 tys. treści z odniesieniem do fejków, z czego aż 73 proc. właśnie na Twitterze. Jak wskazują badacze, na portalu tym można zaobserwować całe sekwencje słów-kluczy, które towarzyszą nieprawdziwym informacjom.

„Niewątpliwie najczęściej jako na fake newsy wskazywałyby też treści o Rządzie, PO, rzeczniku/ach, a zwłaszcza takich, które przypominały wzorcową treść okrzykniętą jako fake-news w Polsce, czyli aferę 10 sierot. Podejrzane są zdjęcia (określane: »mistrz«), które powodują jako reakcję – okrzyk: »kłamstwo«, a także Węgry i Unia Europejska, oraz tematy: emerytura dla Ukraińców i nagrania policji” – czytamy na stronie IRCenter.

Analitycy przedstawili też cykl życia „fejków”. Okazuje się, że moment pojawienia się takiej dezinformacji ma ścisły związek z konkretnym wydarzeniem (na przykład zapowiedź reformy bądź sondaż). Temat dyskusji o „fejku” jest ściśle powiązany z systemem wartości, zasadami moralnymi i ich relacją z ogólnie przyjętymi w Polsce normami. Celem „fejków” jest oczywiście okłamywanie społeczeństwa, trwające aż do momentu weryfikacji i rozprzestrzenienia się dementi. Zdaniem badaczy możliwe jest skonstruowane narzędzia, które pozwoli na automatyczną detekcję nieprawdziwych treści. Pomocna ma być w tym metoda przetwarzania języka naturalnego (ang. natural language processing, NLP) – która zajmuje się zagadnieniami z pogranicza sztucznej inteligencji i językoznawstwa, oraz tego, jak język naturalny jest rozumiany przez komputer....
[pozostało do przeczytania 29% tekstu]
Dostęp do artykułów: