Menu
About me Kontakt

In his latest video, Mateusz Chrobok addresses the topic of disinformation and its impact on how we perceive reality and make decisions. He introduces us to the nature of propaganda actions that have taken various forms over the years, especially in light of contemporary political events. He begins by explaining how disinformation campaigns operate on the internet, providing examples of their schemes: taking over or creating fictional news services that distort reality and then promoting this content through bots and artificially gained engagement. The goal of these actions is to create information bubbles that isolate individuals from truth and alternative viewpoints.

Another crucial issue that Chrobok highlights is specific instances of disinformation campaigns that have occurred in Germany, where efforts were made to discredit Ukrainian refugees. The author emphasizes that it is not only about disinformation but also about creating false narratives aimed at dividing society and weakening its unity. Another interesting aspect discussed in the material is the prevalence of such campaigns during elections, where disinformation aims to influence voting outcomes and distort social and political realities.

Chrobok points out the growing number of disinformation phenomena and the use of paid campaigns to promote false information. The material cites statistics regarding the reach of these campaigns, which effectively reached nearly 30 million accounts on platforms like Facebook. Additionally, it analyzes the mechanisms behind these campaigns, indicating that organized groups precisely execute their actions, which is dangerous in a global context. In closing, he reflects on how disinformation continues to evolve, adopting new forms.

It is also worth noting that the topic of disinformation is not limited to politics but penetrates various aspects of social life. Chrobok expresses concern regarding people's ability to distinguish truth from fiction and makes it a warning for those who believe they are immune to disinformation. Finally, he emphasizes that even if users do not like such content, they may still be unaware recipients, allowing disinformation to continue its harmful effects on society. As of the time of writing this article, the video has garnered 52,426 views and 3,014 likes, showcasing viewers' enthusiasm for the discussed topic.

Toggle timeline summary

  • 00:00 Introduction discussing the impact of worldviews on decisions and elections.
  • 00:05 Mention of challenges in distinguishing truth from fiction.
  • 00:12 Introduction to disinformation research and its relevance.
  • 00:37 Exploration of large-scale disinformation campaigns, especially online.
  • 00:41 Discussion on people's confidence in their ability to recognize disinformation.
  • 00:57 Explanation of how disinformation mechanisms operate.
  • 01:07 Formation of news sites to present alternative viewpoints with fabricated facts.
  • 01:38 Discussion on the promotion of misleading content through social media.
  • 01:54 Creation of information bubbles and the effects on communities.
  • 02:15 Polarization within societies caused by disinformation efforts.
  • 02:37 Consequences of disinformation on trust in authorities.
  • 02:59 Introduction of a Soviet method of undermining states through disinformation.
  • 03:20 Analysis of a report by Meta on disinformation and its origins.
  • 03:41 Case study of disinformation targeting Ukraine and its effects.
  • 03:58 Discussion on false accusations against Ukrainian refugees.
  • 04:18 Debunking efforts involving misleading news platforms.
  • 04:50 Examination of disinformation content presentation.
  • 06:04 Strategy employed by disinformation campaigns to increase engagement.
  • 06:15 Emphasis on targeting influential social media posts.
  • 06:52 Commentary on the evolving nature of misinformation campaigns.
  • 08:12 Discussion on the difficulty of combatting automated disinformation efforts.
  • 17:28 Concerns about the effectiveness of content moderation by platforms.
  • 20:17 Mapping out the implications of misinformation campaigns as elections approach.
  • 21:30 Reflections on the growing sophistication of disinformation tactics.
  • 22:23 Survey results demonstrating societal susceptibility to fake news.
  • 26:31 Final thoughts on the challenges of discerning truth amidst disinformation.

Transcription

Cześć, chcę wpływać na Twoje zdanie, na to, co myślisz o otaczającym Cię świecie, w tym finalnie na Twoje wybory i to również literalnie, także na to, na kogo zagłosujesz. Chcesz dowiedzieć się, jak to się robi, kto może za tym wszystkim stać i czy w ogóle odróżniasz jeszcze prawdę od fikcji? Trafiłem ostatnio na kilka ciekawych opracowań związanych z dezinformacją, którymi chcę się z Tobą podzielić, a okazja ku temu jest dzisiaj zacna, dlatego nie przedłużając, zapraszam. Jak wyglądają szerokie kampanie dezinformacyjne, szczególnie w internecie? Każdemu wydaje się, że doskonale wie i na pewno nigdy nie da się na takie numery nabrać. No ale dzięki ostatnim opracowaniom badaczy z kilku różnych organizacji możemy na realnych przykładach sprawdzić, czy rzeczywiście tak jest, czy tylko nam się wydaje. Zacznijmy więc od przykładowego schematu działania, który w sumie jest dość prosty w swoich założeniach. Przejmuje się lub tworzy od podstaw serwisy informacyjne, na których potem sukcesywnie publikuje się treści prezentujące inny punkt widzenia. Najczęściej ten jedyny prawdziwy. Sęk w tym, że nie jest on po prostu inny, ale opiera się na spreparowanych faktach, które nigdy nie miały miejsca albo stosuje się różne półprawdy, umiejętnie przemilczając niewygodne fragmenty i rozdmuchując ponad miarę te pasujące do narracji. Następnie treści te promuje się w różnych mediach społecznościowych, podbija się je generując sztuczne zaangażowanie za pomocą podstawionych albo przejętych kont użytkowników. To sprawia, że algorytm danego serwisu rekomenduje je puszczając taką wiadomość jeszcze szerzej. Tak tworzy się coraz ciaśniejsze bańki informacyjne, w których próbuje się zamknąć podatne jednostki w taki sposób, aby przestały mieć kontakt z jakimkolwiek innym odserwowanego im poglądem na rzeczywistość. Wkłada im się jeszcze przy tym do głowy, że są jakimiś wybrańcami, którzy jako jedyni rozumieją, a reszta owiec jest przecież ogłupiona przez wszystkie media głównego nurtu, co jeszcze bardziej utwierdza ich w swoich przekonaniach i coraz bardziej oddala od bliskich im osób. Gra się tak na politycznych, społecznych czy religijnych podziałach, podgrzewając je do czerwoności, próbując tym samym rozbijać jakąkolwiek solidarność czy poczucie wspólnoty, co szybko prowadzi do polaryzacji całego społeczeństwa i w efekcie osłabienia państwa. Podważa się przy tym wszystkie autorytety, tak ludzi, jak i instytucji, oskarżając każdego wokół o kłamstwa na podstawie sfabrykowanych informacji, aby zniknęła jakakolwiek kotwica zaufania. Dzięki temu po pewnym czasie, nawet mając dostęp do wszystkich informacji świata, nawet tych widzianych na własne oczy, nigdy nie jest się finalnie pewnym, czy są one prawdziwe, czy też nie. Dokładnie to przewiduje sowiecki mechanizm obalania państwa bezmenowa, który, na co wiele wskazuje, jest ostatnio wykorzystywany w kampanii dezinformacyjnej nazwanej doppelganger. Z końcem 2022 roku Meta opublikowała bardzo interesujący raport. Była w nim mowa o odkrywaniu i usuwaniu fałszywych informacji publikowanych na Facebooku w skoordynowany sposób przez początkowo niezidentyfikowane organizacje z Chin i Rosji. Skupimy się dziś na tych drugich. Wszystko zaczęło się w okolicach maja rzeczonego 22 roku od petycji w Niemczech nawołującej do ograniczenia wsparcia dla ukraińskich uchodźców. Wrzucano materiały wideo zrzucające na Ukrainę całą winę zarosnące w Europie ceny energii w następstwie sankcji nałożonych na Rosję. Oskarżono ukraińskich uchodźców o wszelkie możliwe przestępstwa, kradzieże, niszczenie mienia czy nawet jeżdżenie bez biletów w komunikacji miejskiej. Docelową widownią mieli być nie tylko Niemcy, bo dodano również napisy po angielsku i włosku. Za wszystkim miała stać jakaś pseudoorganizacja o dumnej nazwie Wolne Niemcy, promująca też przy okazji swój kanał na Telegramie. Niedługo potem powstał wielojęzyczny serwis nazwany, o ironio, Reliable Recent News, na którym pojawiały się obszerne treści, zgodne z rosyjską wizją świata, podbijane w różnych serwisach, choćby przez konta prowadzone przez rosyjskie ambasady na świecie. Nagłówki, z jakimi można było się tam spotkać, to klasyczne otwórz oczy albo otwórz mapę prawdy, w których oskarżano ukraińskie siły zbrojne o zbrodnie wojenne przeciwko cywilom przeprowadzane z wykorzystaniem natowskiej broni. Zresztą słowo prawda jest w rosyjskiej propagandzie odmieniane przez wszystkie możliwe przypadki. Pojawiły się choćby fanpejże o nazwach Prawda to nie broń czy Nic poza prawdą. Wiecie, klasyka. Próbowano początkowo wielu metod, aby z czasem wykrystalizować schemat, który widocznie działał najefektywniej. Jaki? Tworzenie serwisów łudząco podobnych do tych szeroko znanych lokalnie, jak choćby niemieckich szpigla czy bilda. Ba, czasem nawet linki na takiej fałszywej stronie prowadziły do prawdziwego serwisu, pod który się podszywano. Co ciekawe, to nie jakość treści była celem samym w sobie, a zwyczajnie ich ilość. Generowano je masowo, licząc na to, że po prostu jakaś ich część przejdzie przez sito automatycznej moderacji systemów mety. Bo te, nawet jeżeli zablokowały zdecydowaną większość, to zawsze przepuściły przecież jakiś ich ułamek. Nawet jeżeli był on skromny, to przy tak wielkiej ilości prób i tak skutkowało to trafieniem tych postów przed oczy użytkowników Facebooka czy Instagrama. To tzw. technika spray and pray, gdzie strzelamy wszystkim, czym się da, licząc, że statystycznie coś po prostu trafi. Celem było zachęcenie do kliknięcia odnośnika i przekierowanie ruchu poza platformę na własne serwisy o różnych generycznych nazwach. Linki wrzucane były również w komentarze pod postami popularnych organizacji czy celebrytów, gdzie szansa na to, że zostaną dostrzeżone, dramatycznie rosła. Znów, nie nastawiając się na wysoki stopień konwersji, ale po prostu zwiększając rozmiar lejka. Cel był prosty. Miało to zobaczyć jak najwięcej osób. Tylko to wszystko wiemy już od dwóch lat. Na pewno więc udało się ten problem rozwiązać, prawda? Infrastruktura budowana od dawna w celu siania dezinformacji na przestrzeni ostatnich lat wcale się nie zmniejszyła, a tylko rośnie. Ale do czego ona w ogóle służy tak bardziej szczegółowo? Konto bot wrzuca odnośnik do artykułu na Facebooka. Przedstawia się w nim najlepiej jakiś kontrowersyjny pogląd na bieżące wydarzenia albo nawet takie totalnie sfabrykowane. To w sumie nie za bardzo ma znaczenie. Liczy się wywołanie emocjonalnej reakcji, aby zachęcić użytkownika do kliknięcia. Post oczywiście jest lajkowany przez inne podstawione konta i w efekcie windowany algorytmem w górę. Takie konta to wydmuszki, często o zbliżonym schemacie nazewnictwa. Loginy zaczynają się od popularnego imienia, za którym jest kilka cyfr, przeważnie z zerem lub prawie zerem obserwujących. Stąd dodatkowym sposobem rozsiewania treści jest komentowanie popularnych postów choćby celebrytów, a nie tylko wrzucanie linków na własne feedy, bo nikt by ich w ten sposób nie zobaczył. Badacze z Recorded Future odkryli takich kont ponad dwa tysiące, a to na pewno bardzo solidnie niedoszacowana wartość. Rzeczywiście są one przez metę regularnie banowane, ale to jak walka z hydrą. Po odcięciu jednej głowy wyrastają zaraz trzy kolejne. W dodatku bany mają również niespodziewanie negatywny efekt, bo utrudniają badaczom analizy. Kiedy zobaczymy już takiego linka i w niego klikniemy, trafiamy na moment na podstawioną stronę, zakupioną w jakiejś taniej domenie, której zadaniem jest po prostu posłużenie Facebookowi czy Twitterowi za źródło tekstu oraz zdjęcia do wyświetlanego podglądu. Po co? Ano pewnie po to, aby uniknąć mechanizmów, które automatycznie moderują dodawane treści. Zdjęcia hostowane są na Telegrafie, czyli takim dziwnym serwisie blogowym należącym do Telegrama, gdzie można anonimowo wrzucać treści. Ale nie to jest jeszcze wcale docelowa strona z przygotowaną dla nas wiadomością, bo spędzamy na niej jedynie ułamek sekundy. W moment jesteśmy przekierowywani na kolejną stronę z jakimś wygenerowanym, bezsensownym tekstem, którego i tak nie zobaczymy, nawet w przypadku powolnego ładowania strony, bo jest biały na białym tle. W tle uruchamia się jednak skryp, który wykorzystuje techniki profilowania takie same jak przy reklamach, aby określić, z jakiego kraju łączymy się do Internetu, aby na tej podstawie przedstawić nam treść przeznaczoną specjalnie dla nas. Dopiero wtedy trafiamy na docelowy serwis na jakimś hostingu, który można kupić, pozostając anonimowym, np. z wykorzystaniem kryptowalut, a jego kłódeczka dostarcza darmowy certyfikat zlecen krypta. Wszystko po to, aby trudniej było określić, kto tak naprawdę za wszystkim stoi. Docelowa domena nie jest już losowa, a brzmi w miarę wiarygodnie, aby utwierdzić nas w przekonaniu, że wszystko jest okej. Wygląda np. jak jakiś dziennik, gdzie w końcu dostaniemy do przeczytania newsa, z którego na samym początku kliknęliśmy. Jego treść, wiele na to wskazuje, generowana jest maszynowo, co znacznie ogranicza koszt całego procesu i podnosi jego jakość. Tylko jakie właściwie treści próbuje się przemycać? Badacze podzielili dezinformujące treści ze względu na kraje, w które są one wycelowane i, co pewnie nikogo nie zdziwi, jednym z najistotniejszych celów jest Ukraina. Podszywa się pod lokalne serwisy informacyjne siecią ponad 800 kont. Celem jest oczywiście wjazd na morale społeczeństwa, utrata wiary w działania ukraińskiego wojska, polityków czy w międzynarodowe wsparcie. Jak? Na przykład publikowanymi artykułami, że Stany Zjednoczone skupiają się całkowicie na pomocy Izraelowi i o Ukrainie to już dawno zapomniały. Albo, że Unia Europejska nie jest w stanie ogarnąć politycznie więcej niż jednego konfliktu w swoim sąsiedztwie. Snuje się więc wizję, że opór prowadzi do nikąd, zadaje liczne pytania, czy ma to w ogóle sens i sieje masę wątpliwości. Choćby za pomocą podawania znacznie wyższych strat na froncie, niż ma to miejsce w rzeczywistości, czy wieszczy się porażkę w każdej trwającej bitwie. Artykuły w podstawionych mediach wspierają też oczywiście pieczołowicie przygotowane memy, a jak? Nie są to jednak tylko portale imitujące znane media, bo te w sumie nie tak trudno odkryć i wskazać palcem. Zdecydowanie groźniejsze operacje to takie, które latami próbują ugruntować pozycje jakiegoś niezależnego, zbudowanego od podstaw lub przejętego wcześniej medium, wcale nie podszywając się pod nikogo, a tak naprawdę siejąc sukcesywnie swoją propagandę. USA też stały się celem, jednak w zupełnie innym kontekście. Nie chodzi wcale o osłabianie morale, ale coraz głębszy podział i próby skłócenia społeczeństwa oraz utratę zaufania do demokracji. Pojawiają się więc portale, takie jak Election Watch, komentujące zaciekle amerykańską politykę wewnętrzną, reklamujące się jako jedyne źródło obiektywnej wiedzy. Wiecie, takie idące pod prąd, z którym przecież spływają ściekiem media głównego nurtu. Oczywiste. Co ciekawe, początkowo serwisy takie wydawać się mogą naprawdę nieźle wyważone w swoich opiniach. To celowe działanie, aby zbudować sobie reputację i zebrać grono wiernych odbiorców treści. Wszystko po to, aby potem sukcesywnie, acz bardzo subtelnie, zacząć skręcać w kierunku obranej odgórnie w Moskwie narracji. I zaczyna się choćby sianie wątpliwości co do jednej ze stron politycznego sporu. Innym przykładem z amerykańskiego poletka są serwisy grające na polaryzujących opinię publiczną problemach. Na przykład siejące nienawiść wobec społeczności osób nieheteronormatywnych czy próbujące podważyć zaufanie do amerykańskiego wojska. Jak? Pojawiają się na przykład wiadomości, że rzekomo Stanom Zjednoczonym przez dostawy dla sojuszników kończy się amunicja, więc Ameryka staje się podatna na ataki z zewnątrz. Albo, że Chiny zaczynają wyprzedać Amerykanów w kwestii rozwoju marynarki wojennej. Wróćmy jednak do Europy, a konkretnie do Niemiec. U naszych zachodnich sąsiadów rozgrywa się głównie kwestie imigracyjne, podkreślając, że jest to przecież wina Ukrainy, a niemieckie władze nie radzą sobie z problemem wcale. Podważa się też jedność w obrębie NATO, kwestionując zwiększanie wydatków na obronność jako całkowicie zbędnych i lekko myślnych. I już każdy z tych problemów osobna ma doprowadzić w efekcie do finansowego upadku Niemiec za sprawą niekompetentnych polityków. Sankcje na Rosję nie działają wcale, a spowodowane nimi wysokie ceny energii na pewno zniszczą tak silny w Niemczech przemysł motoryzacyjny. Wszystkiemu winna według tak przygotowanego przekazu jest znów Ukraina. I to ona odpowiada za to, że niemiecka gospodarka stoi nad przepaścią i za chwilę wykona ogromny krok naprzód. Tu również jest subtelnie. Nie ma jawnego hejtu, ale po prostu kwestionuje się rzeczywistość. Podkreśla się też i chwali, że wzrost popularności partii nacjonalistów z AFD jest przecież naturalną odpowiedzią na wszystkie zarzucane wcześniej niepowodzenia obecnych władz. Interesujące, nieprawdaż? Wszystkie te kampanie z czasem stają się niestety coraz lepsze i lepsze, podnosząc ciągle jakość udostępnianych treści. Bo Rosjanie nie są wcale tacy głupi, jak wielu się wydaje. Jeżeli myślicie, że jestem tak głupi, na jakiego wyglądam, to się mylicie. Jestem ci od głupszy. Sporo wskazuje na to, że wykorzystują narzędzia analityczne do badania zasięgu swoich kampanii, aby na podstawie zebranych danych podejmować dalsze decyzje. Na szczęście nie uniknęli też błędów w konfiguracji usług po swojej stronie. Odkryto choćby panel administratora, służący do zarządzania jedną z sieci serwisów dezinformacyjnych, który, co ciekawe, nie był zabezpieczony hasłem. Dostęp pozwolił podejrzeć statystyki, z których wynika, że zasięg takiej kampanii to prawie 30 milionów kont, którym takie fałszywe wiadomości zostały wyświetlone. Ilość wykorzystywanych domen idzie w setki, a to jedynie te odkryte. Śmiało można założyć, że może ich być nawet o rzędy wielkości więcej. Zauważono też pewną ewolucję. Do stricte zagranicznych kampanii dołączyła też niedawno taka w języku rosyjskim, zorientowana na wewnętrzny rynek. Wycelowana w Rosjan tak w kraju, jak i za granicą i przy okazji w rosyjskojęzycznych Ukraińców. Poruszane w niej tematy to wybory prezydenckie, kwestie rosyjskich regionów, ruskiego miru czy też donieckiej i ługańskiej Republiki Ludowej. Kampania ta ciągle trwa. Serwisy w niej wykorzystywane mają już po kilka lat i wciąż pojawia się na nich nowy content. Nic nie wskazuje jednak, że jest to ewolucja Doppelgängera, a raczej całkowicie osobny byt. No dobra, z jednej strony konta służące do promowania postów są systematycznie usuwane w sporej ilości i bardzo dobrze. Jednak tam, gdzie jest miejsce na jedną chwałę, znajdzie się go też całkiem sporo na obszerną krytykę. Nad problemem postanowili pochylić się badacze z AI Forensics, NGO-sa zajmującego się algorytmami platform internetowych wielkich, olbrzymich. Oczywiście z pomocą sztucznej inteligencji. Wnioski? Ano, w produktach mety moderacja reklam, w tym tych politycznych, leży odłogiem. Szczególnie w językach innych niż angielski. Pozwala to nie tylko rozprzestrzeniać się finansowym skamom, ale też rosyjskiej propagandzie. Bo tak, rosyjscy propagandyści wspierają się też płatnym promowaniem wrzucanych przez siebie postów, co nie powinno chyba nikogo dziwić. Zresztą treści tego typu często nie są nawet właściwie oznaczane. Pozują po prostu jako rzetelne źródła wiadomości i to z owocnym skutkiem, bo opisywana polityczna kampania reklamowa dotarła do prawie 40 milionów kont w usługach mety. Wykorzystano do niej w ocenie badaczy z AI Forensics niecałe cztery tysiące kont. Podkreślają oni też, że prowadzone przez metę działania, aby ją zneutralizować, to kropla w morzu potrzeb. Dwie trzecie reklam nie zostało zadeklarowanych jako polityczne i jedynie niecałe 5% z nich zostało zweryfikowane przez serwis. Ich nasilenie koreluje z wydarzeniami na świecie, które są nie na rękę rosyjskiemu aparatowi państwa. Przykłady? Po ogłoszeniu amerykańskiego pakietu pomocy dla Ukrainy we wrześniu 2023 roku internet zalano tekstami porównującymi PKB Europy i Ameryki, twierdząc, że jest to jedynie sposób na finansowanie amerykańskiego przemysłu zbrojeniowego, a nie żadna realna pomoc. Po ataku Hamasu na Izrael na fali ponownego wybuchu konfliktu w Gazie oskarżano prezydenta Ukrainy o sprzedawanie otrzymanej od Stanów Zjednoczonych broni Hamasowi dla osiągnięcia prywatnych korzyści majątkowych. Gdy Francja ogłosiła szersze wsparcie militarne, zaczęto promować w kraju bagietek i dzikich lagunów treści podsycające niezadowolenie lokalnych rolników, obawiających się o konkurencję ze strony farmerów z Ukrainy po jej ewentualnym wejściu do Unii Europejskiej. Przykłady takie można mnożyć i mnożyć, gdzie celuje się w konkretne grupy społeczne, aby wywołać jak największe podziały. A więc co z tego, że istnieją regulacje jak choćby Digital Services Act i idący za nimi regulamin zabraniający finansowania politycznych reklam z innego kraju niż docelowy, skoro nie jest on wdrażany w życie? Nic dziwnego, że ktoś postanowił to wykorzystać. Jednak niedostosowanie się do DSA może mieć dla mety poważne konsekwencje finansowe. Zresztą, to ciekawe, przeprowadzenie analizy pod tym kątem było możliwe właśnie dzięki przepisom wprowadzonym w DSA. Platformy zostały przecież zmuszone do publikowania danych statystycznych dotyczących reklam i tu, o dziwo, w odróżnieniu od swojej konkurencji w postaci Snapchata, Binga czy Twixera, meta dostosowała się do nich całkiem dobrze. Tak więc w sumie, co chyba jest dość smutne samo w sobie, trzeba ich w tym miejscu pochwalić, bo to wcale nie oznacza, że inni tych problemów nie mają. Oni po prostu nie udostępnili danych, z wykorzystaniem których można by to sprawdzić. Meta oficjalnie potwierdziła istnienie operacji Doppelganger, jednak twierdzi, że nie ma ona realnego wpływu na użytkowników platformy. Niezależni badacze są jednak innego zdania, twierdząc, że skala zjawiska może być nawet dziesiąciokrotnie większa niż obserwujemy. Nic też nie wskazuje na to, aby aktywność z czasem spadała. To szczególnie niebezpieczne, biorąc pod uwagę fakt, że mamy wybory. Dużo wyborów. W 2024 roku bardzo duża część świata głosuje nad wyborem nowych władz i tu na różnych szczeblach. Nic dziwnego, że Rosjanie chcą mieć na nie wpływ. Każda narracja jest ściśle dopasowywana do docelowego kraju. Można też zaobserwować korelację pomiędzy intensywnością publikowania artykułów a protestami w danym kraju, decyzjami politycznymi względem Ukrainy czy sankcjami nakładanymi na Rosję. Wzrost natężenia w Niemczech miał miejsce m.in. w czasie, w którym rząd podejmował decyzje związane z obronnością kraju, deklarując 2% PKB na wydatki militarne oraz podwajając budżet na wsparcie dla Ukrainy. Podobna sytuacja miała miejsce we Francji po głośnym przemówieniu Emanuela Macrona w lutym, gdzie nie wykluczył wysłania francuskich żołnierzy na front. Wtedy też ilość wiadomości na monitorowanych serwisach poszybowała w górę. Badacze zresztą zauważyli jeszcze jedno – spadek aktywności, który nastąpił zaraz po pierwszych szerokich publikacjach na temat Doppelgängera. Tak, jakby Rosjanie przeorganizowali się po wskazaniu ich palcem. Na szczęście w tym wszystkim jest pewna metryka, która brzmi choć odrobinę optymistycznie. Zaangażowanie prawdziwych kont, normalnych użytkowników w szerzenie takich treści jest znikome. Liczba ich lajków, szerów czy komentarzy wskazuje, że są bardziej efektem pomyłki niż rzeczywistego zaangażowania. Ale to wcale nie pozwala bagatelizować sprawy. To, że treści te klikają tylko boty, na co wiele wskazuje, nadal sprawia, że wyświetlają się one normalnym użytkownikom, choćby bardzo nielicznym. Mimo to kampania trwa nadal, więc atakujący widzą płynące z niej korzyści. Być może nawet, jeżeli użytkownicy nie lajkują tych treści, to po prostu je widzą i na pewno podświadomie to na nich jakoś wpływa, ciągle przewijając się gdzieś w tle. Czy to wystarcza? W badaniu Soprasteria we Francji dwie trzecie ankietowanych uwierzyło przynajmniej w jednego prezentowanego im fake newsa. Najgorsze jest to, że większość twierdzi, że na pewno są w stanie odróżnić prawdę od fejka. A więc wiele osób mimowolnie łyka te informacje jak pelikany, a przy tym są święcie przekonani, że ich ten problem nie dotyczy. No dobra, ktoś zapyta, a skąd w ogóle wiadomo, że to Rosjanie? A może to wcale nie oni? I argument, że kiedy coś wygląda jak kaczka i kwacze jak kaczka wcale do niego nie dociera? Cóż, już Meta w swoich obserwacjach sprzed dwóch lat przypisała kampanię Doppelganger, choć wtedy jeszcze jej tak chyba nie nazwano, dwóm moskiewskim firmom, strukturze oraz agencji projektów społecznych. Obie są sankcjonowane tak w Europie, jak i w Stanach Zjednoczonych. Ich klientami są rosyjskie agencje rządowe, jednostki samorządów czy firmy należące do oligarchów. Wnioski Mety potwierdziły z czasem również inne podmioty jak choćby francuskie Wiginum. Dokładne prześledzenie, dokąd finalnie prowadzą odnośniki, nie pozostawia żadnych złudzeń. Początkowe domeny służące do serwowania metadanych zlokalizowane są na kilku serwerach w Rosji. Następnie serwisy wykorzystywane na drugim etapie kampanii wszystkie korzystały z jednego serwera zlokalizowanego w Wielkiej Brytanii. Prowadziły do linki podszywające się pod znane serwisy informacyjne, jak niemiecki Die Welt, amerykański Fox News czy Washington Post oraz francuskie Le Parisien czy Le Pont. Wykorzystywany hosting znany jest z tego, że można za niego płacić kryptowalutami. Potwierdzono też, że adres należący do sieci Recent Reliable News operowany jest przez Rosjan. Kampania Doppelganger pokazuje, że Rosjanie są w stanie iść bardzo szeroko, prowadząc działania w wielu krajach i na wielu frontach wojny informacyjnej. W dodatku robiąc to naprawdę nieźle, bo treści są odpowiednio personalizowane pod poszczególne grupy społeczne na każdym z rynków. Pozwala to znacznie silniej oddziaływać na społeczeństwo. Skupiono się głównie na Francji, Niemczech, Stanach Zjednoczonych i oczywiście Ukrainie. Wielka Brytania, Litwa, Szwajcaria, Słowacja i Włochy również są celami, jednak w mniejszej skali. Obrywa się też ryrkoszetem Izraelowi, gdzie celem jest podważenie sojuszu ze Stanami Zjednoczonymi. Tak, podziwo, my nie byliśmy celem dla tej akurat kampanii. To zresztą nie jedyne zachowania, którymi Rosja próbuje wpływać na społeczeństwo zachodu w mediach społecznościowych. Odkryto i powiązano z nimi również komentarze wycelowane w media, dziennikarzy czy osoby weryfikujące fakty w poszukiwaniu fake newsów, mające za zadanie ich zdyskredytować. Jak? Udostępniając w komentarzach spreparowane treści bez żadnego poparcia w faktach, zarzucając kłamstwa i zachęcając oczywiście do włączenia myślenia. Co robić i jak żyć? Problem ten wcale nie dotyczy jedynie Facebooka, jeżeli odniosłeś takie wrażenie. Kampanie dezinformacyjne wciąż ewoluują. Pojawiają się choćby materiały wideo na TikToku, Instagramie czy YouTubie, również z wykorzystaniem deepfake'ów. Ale treści nie trzeba wcale generować maszynowo. Można też pokazywać nagrania z jakiejś konferencji, która wygląda na pierwszy rzut oka na bardzo poważną i renomowaną, gdzie pod płaszczykiem debaty ekspertów przemyca się społeczeństwu punkt widzenia świata zgodny z ruskim mirem. Przez takie właśnie zagrania z czasem przestajemy odróżniać, co jest prawdą, a co fałszem. To naprawdę bardzo trudne. My, zwykli śmiertelnicy, stajemy naprzeciw świetnie wyszkolonym służbom wielkich mocarstw. Nie możemy się dziwić, że znajdzie się wiele osób, które połkną haczek. Czy też artykuł wywołujący w tobie silne emocje? Weź głęboki wdech i zastanów się przez chwilę, w czyim interesie leży właśnie taka twoja reakcja. Być może pozwoli ci to spojrzeć na problem szerzej i choćby poszukasz w danym temacie więcej informacji. Czy jedna narracja jest prorosyjska, a każda inna nie? Niestety często sprawy nie są wcale takie czarno-białe, jakbyśmy sobie tego życzyli. Jeżeli istnieje jakieś pole do konfliktu, a przecież gdzie dwóch Polaków, tam trzy zdania, wprawny dezinformator będzie podsycał obie strony konfliktu. Bo wcale nie liczy się promowanie jednego konkretnego światopoglądu, a po prostu dzielenie społeczeństwa. Pamiętaj o tym, wdając się w kolejną utarczkę o to, kto ma rację w komentarzach na Twixerze. Zaryzykuję stwierdzenie, że operatorzy mediów społecznościowych nie są specjalnie zainteresowani walką z dezinformacją. Skoro ktoś płaci za reklamy, to po co zadawać pytania? To on jest w tym schemacie klientem, a nie użytkownik konsumujący później te treści. I to już wszystko na dziś. Tymczasem dziękuję za Waszą uwagę i do zobaczenia. Napisy stworzone przez społeczność Amara.org