Jak manipulować wyborami? - o dezinformacji słów kilka (film, 28m)
Mateusz Chrobok porusza temat dezinformacji w swoim najnowszym materiale, omawiając, jak bardzo ta zjawisko wpływa na nasze postrzeganie rzeczywistości i decyzje, które podejmujemy. Wprowadza nas w tematykę działań propagandowych, które przybierały różne formy na przestrzeni lat, a zwłaszcza w kontekście współczesnych wydarzeń politycznych. Zaczyna od wyjaśnienia, jak działają kampanie dezinformacyjne w internecie i podaje przykłady ich schematów: przejmowanie lub tworzenie fikcyjnych serwisów informacyjnych, które fałszują rzeczywistość, a następnie promują te treści za pomocą botów i sztucznie uzyskanego zaangażowania. Celem takich działań jest stworzenie balonów informacyjnych, izolujących jednostki od prawdziwych informacji i alternatywnych punktów widzenia.
Kolejną istotną kwestią, na którą zwraca uwagę Chrobok, są konkretne przykłady kampanii dezinformacyjnych, które miały miejsce m.in. w Niemczech, gdzie pojawiły się działania mające na celu zdyskredytowanie ukraińskich uchodźców. Autor podkreśla, że chodzi nie tylko o dezinformację, ale także o tworzenie fałszywych narracji, które mają na celu podział społeczeństwa oraz osłabienie jego jedności. Innym interesującym aspektem poruszanym w materiale jest obecność takich kampanii w wyborach, gdzie dezinformacja ma na celu wpłynięcie na wyniki głosowań i zniekształcenie rzeczywistości społecznej oraz politycznej.
Chrobok zwraca uwagę na rosnącą liczba zjawisk dezinformacyjnych oraz wykorzystywanie płatnych kampanii w celu promocji fałszywych informacji. Materiał przytacza statystyki osiągnięć tych kampanii, które de facto sięgnęły prawie 30 milionów kont na platformach takich jak Facebook. Dodatkowo, analizuje mechanizmy, jakie stoją za tymi kampaniami, wskazując, że istnieją zorganizowane grupy, które precyzyjnie wykonują swoje działania, co jest niebezpieczne w kontekście globalnym. Z zamyśleniem dodaje, że dezinformacja nie ustaje, a wręcz przeciwnie - jeszcze bardziej ewoluuje, przybierając nowe formy.
Warto również zauważyć, że temat dezinformacji nie dotyczy jedynie polityki, ale przenika do różnych sfer życia społecznego. Chrobok wyraża zmartwienie dotyczące zdolności ludzi do odróżniania prawdy od fikcji, a także czyni to przestrogą dla osób, które myślą, że są odporne na dezinformację. Na końcu materiału autor podkreśla, że nawet jeśli użytkownicy nie lajkują takich treści, mogą być ich nieświadomymi odbiorcami, przez co dezinformacja continueuje swoim szkodliwym działaniem na społeczeństwo. Na koniec, w czasie pisania artykułu, material zdobył 52426 wyświetleń oraz 3014 polubień, co pokazuje zapał widzów do poruszanej tematyki.
Toggle timeline summary
-
Wprowadzenie omawiające wpływ światopoglądów na decyzje i wybory.
-
Wzmianka o wyzwaniach w odróżnianiu prawdy od fikcji.
-
Wprowadzenie do badań nad dezinformacją i jej znaczeniem.
-
Eksploracja dużych kampanii dezinformacyjnych, szczególnie w Internecie.
-
Dyskusja na temat zaufania ludzi do ich zdolności do rozpoznawania dezinformacji.
-
Wyjaśnienie, jak działają mechanizmy dezinformacji.
-
Tworzenie stron informacyjnych w celu prezentacji alternatywnych punktów widzenia z fałszywymi faktami.
-
Dyskusja na temat promowania mylnych treści za pośrednictwem mediów społecznościowych.
-
Tworzenie baniek informacyjnych i ich wpływ na wspólnoty.
-
Polaryzacja w społeczeństwach spowodowana działaniami dezinformacyjnymi.
-
Konsekwencje dezinformacji dla zaufania do władz.
-
Wprowadzenie radzieckiej metody podważania państw poprzez dezinformację.
-
Analiza raportu Meta dotyczącego dezinformacji i jej źródeł.
-
Studium przypadku dezinformacji kierowanej na Ukrainę i jej skutki.
-
Dyskusja na temat fałszywych oskarżeń wobec ukraińskich uchodźców.
-
Wysiłki dezinformacyjne dotyczące mylnych platform informacyjnych.
-
Badanie prezentacji treści dezinformacyjnych.
-
Strategia stosowana przez kampanie dezinformacyjne w celu zwiększenia zaangażowania.
-
Podkreślenie celu atakowania wpływowych postów w mediach społecznościowych.
-
Komentarz na temat ewoluującego charakteru kampanii dezinformacyjnych.
-
Dyskusja na temat trudności w zwalczaniu zautomatyzowanych działań dezinformacyjnych.
-
Obawy dotyczące skuteczności moderacji treści przez platformy.
-
Mapowanie implikacji kampanii dezinformacyjnych w miarę zbliżania się wyborów.
-
Refleksje na temat rosnącej wyrafinowania taktyk dezinformacyjnych.
-
Wyniki badań pokazujące podatność społeczeństwa na fake news.
-
Ostateczne myśli na temat wyzwań związanych z rozróżnianiem prawdy wśród dezinformacji.
Transcription
Cześć, chcę wpływać na Twoje zdanie, na to, co myślisz o otaczającym Cię świecie, w tym finalnie na Twoje wybory i to również literalnie, także na to, na kogo zagłosujesz. Chcesz dowiedzieć się, jak to się robi, kto może za tym wszystkim stać i czy w ogóle odróżniasz jeszcze prawdę od fikcji? Trafiłem ostatnio na kilka ciekawych opracowań związanych z dezinformacją, którymi chcę się z Tobą podzielić, a okazja ku temu jest dzisiaj zacna, dlatego nie przedłużając, zapraszam. Jak wyglądają szerokie kampanie dezinformacyjne, szczególnie w internecie? Każdemu wydaje się, że doskonale wie i na pewno nigdy nie da się na takie numery nabrać. No ale dzięki ostatnim opracowaniom badaczy z kilku różnych organizacji możemy na realnych przykładach sprawdzić, czy rzeczywiście tak jest, czy tylko nam się wydaje. Zacznijmy więc od przykładowego schematu działania, który w sumie jest dość prosty w swoich założeniach. Przejmuje się lub tworzy od podstaw serwisy informacyjne, na których potem sukcesywnie publikuje się treści prezentujące inny punkt widzenia. Najczęściej ten jedyny prawdziwy. Sęk w tym, że nie jest on po prostu inny, ale opiera się na spreparowanych faktach, które nigdy nie miały miejsca albo stosuje się różne półprawdy, umiejętnie przemilczając niewygodne fragmenty i rozdmuchując ponad miarę te pasujące do narracji. Następnie treści te promuje się w różnych mediach społecznościowych, podbija się je generując sztuczne zaangażowanie za pomocą podstawionych albo przejętych kont użytkowników. To sprawia, że algorytm danego serwisu rekomenduje je puszczając taką wiadomość jeszcze szerzej. Tak tworzy się coraz ciaśniejsze bańki informacyjne, w których próbuje się zamknąć podatne jednostki w taki sposób, aby przestały mieć kontakt z jakimkolwiek innym odserwowanego im poglądem na rzeczywistość. Wkłada im się jeszcze przy tym do głowy, że są jakimiś wybrańcami, którzy jako jedyni rozumieją, a reszta owiec jest przecież ogłupiona przez wszystkie media głównego nurtu, co jeszcze bardziej utwierdza ich w swoich przekonaniach i coraz bardziej oddala od bliskich im osób. Gra się tak na politycznych, społecznych czy religijnych podziałach, podgrzewając je do czerwoności, próbując tym samym rozbijać jakąkolwiek solidarność czy poczucie wspólnoty, co szybko prowadzi do polaryzacji całego społeczeństwa i w efekcie osłabienia państwa. Podważa się przy tym wszystkie autorytety, tak ludzi, jak i instytucji, oskarżając każdego wokół o kłamstwa na podstawie sfabrykowanych informacji, aby zniknęła jakakolwiek kotwica zaufania. Dzięki temu po pewnym czasie, nawet mając dostęp do wszystkich informacji świata, nawet tych widzianych na własne oczy, nigdy nie jest się finalnie pewnym, czy są one prawdziwe, czy też nie. Dokładnie to przewiduje sowiecki mechanizm obalania państwa bezmenowa, który, na co wiele wskazuje, jest ostatnio wykorzystywany w kampanii dezinformacyjnej nazwanej doppelganger. Z końcem 2022 roku Meta opublikowała bardzo interesujący raport. Była w nim mowa o odkrywaniu i usuwaniu fałszywych informacji publikowanych na Facebooku w skoordynowany sposób przez początkowo niezidentyfikowane organizacje z Chin i Rosji. Skupimy się dziś na tych drugich. Wszystko zaczęło się w okolicach maja rzeczonego 22 roku od petycji w Niemczech nawołującej do ograniczenia wsparcia dla ukraińskich uchodźców. Wrzucano materiały wideo zrzucające na Ukrainę całą winę zarosnące w Europie ceny energii w następstwie sankcji nałożonych na Rosję. Oskarżono ukraińskich uchodźców o wszelkie możliwe przestępstwa, kradzieże, niszczenie mienia czy nawet jeżdżenie bez biletów w komunikacji miejskiej. Docelową widownią mieli być nie tylko Niemcy, bo dodano również napisy po angielsku i włosku. Za wszystkim miała stać jakaś pseudoorganizacja o dumnej nazwie Wolne Niemcy, promująca też przy okazji swój kanał na Telegramie. Niedługo potem powstał wielojęzyczny serwis nazwany, o ironio, Reliable Recent News, na którym pojawiały się obszerne treści, zgodne z rosyjską wizją świata, podbijane w różnych serwisach, choćby przez konta prowadzone przez rosyjskie ambasady na świecie. Nagłówki, z jakimi można było się tam spotkać, to klasyczne otwórz oczy albo otwórz mapę prawdy, w których oskarżano ukraińskie siły zbrojne o zbrodnie wojenne przeciwko cywilom przeprowadzane z wykorzystaniem natowskiej broni. Zresztą słowo prawda jest w rosyjskiej propagandzie odmieniane przez wszystkie możliwe przypadki. Pojawiły się choćby fanpejże o nazwach Prawda to nie broń czy Nic poza prawdą. Wiecie, klasyka. Próbowano początkowo wielu metod, aby z czasem wykrystalizować schemat, który widocznie działał najefektywniej. Jaki? Tworzenie serwisów łudząco podobnych do tych szeroko znanych lokalnie, jak choćby niemieckich szpigla czy bilda. Ba, czasem nawet linki na takiej fałszywej stronie prowadziły do prawdziwego serwisu, pod który się podszywano. Co ciekawe, to nie jakość treści była celem samym w sobie, a zwyczajnie ich ilość. Generowano je masowo, licząc na to, że po prostu jakaś ich część przejdzie przez sito automatycznej moderacji systemów mety. Bo te, nawet jeżeli zablokowały zdecydowaną większość, to zawsze przepuściły przecież jakiś ich ułamek. Nawet jeżeli był on skromny, to przy tak wielkiej ilości prób i tak skutkowało to trafieniem tych postów przed oczy użytkowników Facebooka czy Instagrama. To tzw. technika spray and pray, gdzie strzelamy wszystkim, czym się da, licząc, że statystycznie coś po prostu trafi. Celem było zachęcenie do kliknięcia odnośnika i przekierowanie ruchu poza platformę na własne serwisy o różnych generycznych nazwach. Linki wrzucane były również w komentarze pod postami popularnych organizacji czy celebrytów, gdzie szansa na to, że zostaną dostrzeżone, dramatycznie rosła. Znów, nie nastawiając się na wysoki stopień konwersji, ale po prostu zwiększając rozmiar lejka. Cel był prosty. Miało to zobaczyć jak najwięcej osób. Tylko to wszystko wiemy już od dwóch lat. Na pewno więc udało się ten problem rozwiązać, prawda? Infrastruktura budowana od dawna w celu siania dezinformacji na przestrzeni ostatnich lat wcale się nie zmniejszyła, a tylko rośnie. Ale do czego ona w ogóle służy tak bardziej szczegółowo? Konto bot wrzuca odnośnik do artykułu na Facebooka. Przedstawia się w nim najlepiej jakiś kontrowersyjny pogląd na bieżące wydarzenia albo nawet takie totalnie sfabrykowane. To w sumie nie za bardzo ma znaczenie. Liczy się wywołanie emocjonalnej reakcji, aby zachęcić użytkownika do kliknięcia. Post oczywiście jest lajkowany przez inne podstawione konta i w efekcie windowany algorytmem w górę. Takie konta to wydmuszki, często o zbliżonym schemacie nazewnictwa. Loginy zaczynają się od popularnego imienia, za którym jest kilka cyfr, przeważnie z zerem lub prawie zerem obserwujących. Stąd dodatkowym sposobem rozsiewania treści jest komentowanie popularnych postów choćby celebrytów, a nie tylko wrzucanie linków na własne feedy, bo nikt by ich w ten sposób nie zobaczył. Badacze z Recorded Future odkryli takich kont ponad dwa tysiące, a to na pewno bardzo solidnie niedoszacowana wartość. Rzeczywiście są one przez metę regularnie banowane, ale to jak walka z hydrą. Po odcięciu jednej głowy wyrastają zaraz trzy kolejne. W dodatku bany mają również niespodziewanie negatywny efekt, bo utrudniają badaczom analizy. Kiedy zobaczymy już takiego linka i w niego klikniemy, trafiamy na moment na podstawioną stronę, zakupioną w jakiejś taniej domenie, której zadaniem jest po prostu posłużenie Facebookowi czy Twitterowi za źródło tekstu oraz zdjęcia do wyświetlanego podglądu. Po co? Ano pewnie po to, aby uniknąć mechanizmów, które automatycznie moderują dodawane treści. Zdjęcia hostowane są na Telegrafie, czyli takim dziwnym serwisie blogowym należącym do Telegrama, gdzie można anonimowo wrzucać treści. Ale nie to jest jeszcze wcale docelowa strona z przygotowaną dla nas wiadomością, bo spędzamy na niej jedynie ułamek sekundy. W moment jesteśmy przekierowywani na kolejną stronę z jakimś wygenerowanym, bezsensownym tekstem, którego i tak nie zobaczymy, nawet w przypadku powolnego ładowania strony, bo jest biały na białym tle. W tle uruchamia się jednak skryp, który wykorzystuje techniki profilowania takie same jak przy reklamach, aby określić, z jakiego kraju łączymy się do Internetu, aby na tej podstawie przedstawić nam treść przeznaczoną specjalnie dla nas. Dopiero wtedy trafiamy na docelowy serwis na jakimś hostingu, który można kupić, pozostając anonimowym, np. z wykorzystaniem kryptowalut, a jego kłódeczka dostarcza darmowy certyfikat zlecen krypta. Wszystko po to, aby trudniej było określić, kto tak naprawdę za wszystkim stoi. Docelowa domena nie jest już losowa, a brzmi w miarę wiarygodnie, aby utwierdzić nas w przekonaniu, że wszystko jest okej. Wygląda np. jak jakiś dziennik, gdzie w końcu dostaniemy do przeczytania newsa, z którego na samym początku kliknęliśmy. Jego treść, wiele na to wskazuje, generowana jest maszynowo, co znacznie ogranicza koszt całego procesu i podnosi jego jakość. Tylko jakie właściwie treści próbuje się przemycać? Badacze podzielili dezinformujące treści ze względu na kraje, w które są one wycelowane i, co pewnie nikogo nie zdziwi, jednym z najistotniejszych celów jest Ukraina. Podszywa się pod lokalne serwisy informacyjne siecią ponad 800 kont. Celem jest oczywiście wjazd na morale społeczeństwa, utrata wiary w działania ukraińskiego wojska, polityków czy w międzynarodowe wsparcie. Jak? Na przykład publikowanymi artykułami, że Stany Zjednoczone skupiają się całkowicie na pomocy Izraelowi i o Ukrainie to już dawno zapomniały. Albo, że Unia Europejska nie jest w stanie ogarnąć politycznie więcej niż jednego konfliktu w swoim sąsiedztwie. Snuje się więc wizję, że opór prowadzi do nikąd, zadaje liczne pytania, czy ma to w ogóle sens i sieje masę wątpliwości. Choćby za pomocą podawania znacznie wyższych strat na froncie, niż ma to miejsce w rzeczywistości, czy wieszczy się porażkę w każdej trwającej bitwie. Artykuły w podstawionych mediach wspierają też oczywiście pieczołowicie przygotowane memy, a jak? Nie są to jednak tylko portale imitujące znane media, bo te w sumie nie tak trudno odkryć i wskazać palcem. Zdecydowanie groźniejsze operacje to takie, które latami próbują ugruntować pozycje jakiegoś niezależnego, zbudowanego od podstaw lub przejętego wcześniej medium, wcale nie podszywając się pod nikogo, a tak naprawdę siejąc sukcesywnie swoją propagandę. USA też stały się celem, jednak w zupełnie innym kontekście. Nie chodzi wcale o osłabianie morale, ale coraz głębszy podział i próby skłócenia społeczeństwa oraz utratę zaufania do demokracji. Pojawiają się więc portale, takie jak Election Watch, komentujące zaciekle amerykańską politykę wewnętrzną, reklamujące się jako jedyne źródło obiektywnej wiedzy. Wiecie, takie idące pod prąd, z którym przecież spływają ściekiem media głównego nurtu. Oczywiste. Co ciekawe, początkowo serwisy takie wydawać się mogą naprawdę nieźle wyważone w swoich opiniach. To celowe działanie, aby zbudować sobie reputację i zebrać grono wiernych odbiorców treści. Wszystko po to, aby potem sukcesywnie, acz bardzo subtelnie, zacząć skręcać w kierunku obranej odgórnie w Moskwie narracji. I zaczyna się choćby sianie wątpliwości co do jednej ze stron politycznego sporu. Innym przykładem z amerykańskiego poletka są serwisy grające na polaryzujących opinię publiczną problemach. Na przykład siejące nienawiść wobec społeczności osób nieheteronormatywnych czy próbujące podważyć zaufanie do amerykańskiego wojska. Jak? Pojawiają się na przykład wiadomości, że rzekomo Stanom Zjednoczonym przez dostawy dla sojuszników kończy się amunicja, więc Ameryka staje się podatna na ataki z zewnątrz. Albo, że Chiny zaczynają wyprzedać Amerykanów w kwestii rozwoju marynarki wojennej. Wróćmy jednak do Europy, a konkretnie do Niemiec. U naszych zachodnich sąsiadów rozgrywa się głównie kwestie imigracyjne, podkreślając, że jest to przecież wina Ukrainy, a niemieckie władze nie radzą sobie z problemem wcale. Podważa się też jedność w obrębie NATO, kwestionując zwiększanie wydatków na obronność jako całkowicie zbędnych i lekko myślnych. I już każdy z tych problemów osobna ma doprowadzić w efekcie do finansowego upadku Niemiec za sprawą niekompetentnych polityków. Sankcje na Rosję nie działają wcale, a spowodowane nimi wysokie ceny energii na pewno zniszczą tak silny w Niemczech przemysł motoryzacyjny. Wszystkiemu winna według tak przygotowanego przekazu jest znów Ukraina. I to ona odpowiada za to, że niemiecka gospodarka stoi nad przepaścią i za chwilę wykona ogromny krok naprzód. Tu również jest subtelnie. Nie ma jawnego hejtu, ale po prostu kwestionuje się rzeczywistość. Podkreśla się też i chwali, że wzrost popularności partii nacjonalistów z AFD jest przecież naturalną odpowiedzią na wszystkie zarzucane wcześniej niepowodzenia obecnych władz. Interesujące, nieprawdaż? Wszystkie te kampanie z czasem stają się niestety coraz lepsze i lepsze, podnosząc ciągle jakość udostępnianych treści. Bo Rosjanie nie są wcale tacy głupi, jak wielu się wydaje. Jeżeli myślicie, że jestem tak głupi, na jakiego wyglądam, to się mylicie. Jestem ci od głupszy. Sporo wskazuje na to, że wykorzystują narzędzia analityczne do badania zasięgu swoich kampanii, aby na podstawie zebranych danych podejmować dalsze decyzje. Na szczęście nie uniknęli też błędów w konfiguracji usług po swojej stronie. Odkryto choćby panel administratora, służący do zarządzania jedną z sieci serwisów dezinformacyjnych, który, co ciekawe, nie był zabezpieczony hasłem. Dostęp pozwolił podejrzeć statystyki, z których wynika, że zasięg takiej kampanii to prawie 30 milionów kont, którym takie fałszywe wiadomości zostały wyświetlone. Ilość wykorzystywanych domen idzie w setki, a to jedynie te odkryte. Śmiało można założyć, że może ich być nawet o rzędy wielkości więcej. Zauważono też pewną ewolucję. Do stricte zagranicznych kampanii dołączyła też niedawno taka w języku rosyjskim, zorientowana na wewnętrzny rynek. Wycelowana w Rosjan tak w kraju, jak i za granicą i przy okazji w rosyjskojęzycznych Ukraińców. Poruszane w niej tematy to wybory prezydenckie, kwestie rosyjskich regionów, ruskiego miru czy też donieckiej i ługańskiej Republiki Ludowej. Kampania ta ciągle trwa. Serwisy w niej wykorzystywane mają już po kilka lat i wciąż pojawia się na nich nowy content. Nic nie wskazuje jednak, że jest to ewolucja Doppelgängera, a raczej całkowicie osobny byt. No dobra, z jednej strony konta służące do promowania postów są systematycznie usuwane w sporej ilości i bardzo dobrze. Jednak tam, gdzie jest miejsce na jedną chwałę, znajdzie się go też całkiem sporo na obszerną krytykę. Nad problemem postanowili pochylić się badacze z AI Forensics, NGO-sa zajmującego się algorytmami platform internetowych wielkich, olbrzymich. Oczywiście z pomocą sztucznej inteligencji. Wnioski? Ano, w produktach mety moderacja reklam, w tym tych politycznych, leży odłogiem. Szczególnie w językach innych niż angielski. Pozwala to nie tylko rozprzestrzeniać się finansowym skamom, ale też rosyjskiej propagandzie. Bo tak, rosyjscy propagandyści wspierają się też płatnym promowaniem wrzucanych przez siebie postów, co nie powinno chyba nikogo dziwić. Zresztą treści tego typu często nie są nawet właściwie oznaczane. Pozują po prostu jako rzetelne źródła wiadomości i to z owocnym skutkiem, bo opisywana polityczna kampania reklamowa dotarła do prawie 40 milionów kont w usługach mety. Wykorzystano do niej w ocenie badaczy z AI Forensics niecałe cztery tysiące kont. Podkreślają oni też, że prowadzone przez metę działania, aby ją zneutralizować, to kropla w morzu potrzeb. Dwie trzecie reklam nie zostało zadeklarowanych jako polityczne i jedynie niecałe 5% z nich zostało zweryfikowane przez serwis. Ich nasilenie koreluje z wydarzeniami na świecie, które są nie na rękę rosyjskiemu aparatowi państwa. Przykłady? Po ogłoszeniu amerykańskiego pakietu pomocy dla Ukrainy we wrześniu 2023 roku internet zalano tekstami porównującymi PKB Europy i Ameryki, twierdząc, że jest to jedynie sposób na finansowanie amerykańskiego przemysłu zbrojeniowego, a nie żadna realna pomoc. Po ataku Hamasu na Izrael na fali ponownego wybuchu konfliktu w Gazie oskarżano prezydenta Ukrainy o sprzedawanie otrzymanej od Stanów Zjednoczonych broni Hamasowi dla osiągnięcia prywatnych korzyści majątkowych. Gdy Francja ogłosiła szersze wsparcie militarne, zaczęto promować w kraju bagietek i dzikich lagunów treści podsycające niezadowolenie lokalnych rolników, obawiających się o konkurencję ze strony farmerów z Ukrainy po jej ewentualnym wejściu do Unii Europejskiej. Przykłady takie można mnożyć i mnożyć, gdzie celuje się w konkretne grupy społeczne, aby wywołać jak największe podziały. A więc co z tego, że istnieją regulacje jak choćby Digital Services Act i idący za nimi regulamin zabraniający finansowania politycznych reklam z innego kraju niż docelowy, skoro nie jest on wdrażany w życie? Nic dziwnego, że ktoś postanowił to wykorzystać. Jednak niedostosowanie się do DSA może mieć dla mety poważne konsekwencje finansowe. Zresztą, to ciekawe, przeprowadzenie analizy pod tym kątem było możliwe właśnie dzięki przepisom wprowadzonym w DSA. Platformy zostały przecież zmuszone do publikowania danych statystycznych dotyczących reklam i tu, o dziwo, w odróżnieniu od swojej konkurencji w postaci Snapchata, Binga czy Twixera, meta dostosowała się do nich całkiem dobrze. Tak więc w sumie, co chyba jest dość smutne samo w sobie, trzeba ich w tym miejscu pochwalić, bo to wcale nie oznacza, że inni tych problemów nie mają. Oni po prostu nie udostępnili danych, z wykorzystaniem których można by to sprawdzić. Meta oficjalnie potwierdziła istnienie operacji Doppelganger, jednak twierdzi, że nie ma ona realnego wpływu na użytkowników platformy. Niezależni badacze są jednak innego zdania, twierdząc, że skala zjawiska może być nawet dziesiąciokrotnie większa niż obserwujemy. Nic też nie wskazuje na to, aby aktywność z czasem spadała. To szczególnie niebezpieczne, biorąc pod uwagę fakt, że mamy wybory. Dużo wyborów. W 2024 roku bardzo duża część świata głosuje nad wyborem nowych władz i tu na różnych szczeblach. Nic dziwnego, że Rosjanie chcą mieć na nie wpływ. Każda narracja jest ściśle dopasowywana do docelowego kraju. Można też zaobserwować korelację pomiędzy intensywnością publikowania artykułów a protestami w danym kraju, decyzjami politycznymi względem Ukrainy czy sankcjami nakładanymi na Rosję. Wzrost natężenia w Niemczech miał miejsce m.in. w czasie, w którym rząd podejmował decyzje związane z obronnością kraju, deklarując 2% PKB na wydatki militarne oraz podwajając budżet na wsparcie dla Ukrainy. Podobna sytuacja miała miejsce we Francji po głośnym przemówieniu Emanuela Macrona w lutym, gdzie nie wykluczył wysłania francuskich żołnierzy na front. Wtedy też ilość wiadomości na monitorowanych serwisach poszybowała w górę. Badacze zresztą zauważyli jeszcze jedno – spadek aktywności, który nastąpił zaraz po pierwszych szerokich publikacjach na temat Doppelgängera. Tak, jakby Rosjanie przeorganizowali się po wskazaniu ich palcem. Na szczęście w tym wszystkim jest pewna metryka, która brzmi choć odrobinę optymistycznie. Zaangażowanie prawdziwych kont, normalnych użytkowników w szerzenie takich treści jest znikome. Liczba ich lajków, szerów czy komentarzy wskazuje, że są bardziej efektem pomyłki niż rzeczywistego zaangażowania. Ale to wcale nie pozwala bagatelizować sprawy. To, że treści te klikają tylko boty, na co wiele wskazuje, nadal sprawia, że wyświetlają się one normalnym użytkownikom, choćby bardzo nielicznym. Mimo to kampania trwa nadal, więc atakujący widzą płynące z niej korzyści. Być może nawet, jeżeli użytkownicy nie lajkują tych treści, to po prostu je widzą i na pewno podświadomie to na nich jakoś wpływa, ciągle przewijając się gdzieś w tle. Czy to wystarcza? W badaniu Soprasteria we Francji dwie trzecie ankietowanych uwierzyło przynajmniej w jednego prezentowanego im fake newsa. Najgorsze jest to, że większość twierdzi, że na pewno są w stanie odróżnić prawdę od fejka. A więc wiele osób mimowolnie łyka te informacje jak pelikany, a przy tym są święcie przekonani, że ich ten problem nie dotyczy. No dobra, ktoś zapyta, a skąd w ogóle wiadomo, że to Rosjanie? A może to wcale nie oni? I argument, że kiedy coś wygląda jak kaczka i kwacze jak kaczka wcale do niego nie dociera? Cóż, już Meta w swoich obserwacjach sprzed dwóch lat przypisała kampanię Doppelganger, choć wtedy jeszcze jej tak chyba nie nazwano, dwóm moskiewskim firmom, strukturze oraz agencji projektów społecznych. Obie są sankcjonowane tak w Europie, jak i w Stanach Zjednoczonych. Ich klientami są rosyjskie agencje rządowe, jednostki samorządów czy firmy należące do oligarchów. Wnioski Mety potwierdziły z czasem również inne podmioty jak choćby francuskie Wiginum. Dokładne prześledzenie, dokąd finalnie prowadzą odnośniki, nie pozostawia żadnych złudzeń. Początkowe domeny służące do serwowania metadanych zlokalizowane są na kilku serwerach w Rosji. Następnie serwisy wykorzystywane na drugim etapie kampanii wszystkie korzystały z jednego serwera zlokalizowanego w Wielkiej Brytanii. Prowadziły do linki podszywające się pod znane serwisy informacyjne, jak niemiecki Die Welt, amerykański Fox News czy Washington Post oraz francuskie Le Parisien czy Le Pont. Wykorzystywany hosting znany jest z tego, że można za niego płacić kryptowalutami. Potwierdzono też, że adres należący do sieci Recent Reliable News operowany jest przez Rosjan. Kampania Doppelganger pokazuje, że Rosjanie są w stanie iść bardzo szeroko, prowadząc działania w wielu krajach i na wielu frontach wojny informacyjnej. W dodatku robiąc to naprawdę nieźle, bo treści są odpowiednio personalizowane pod poszczególne grupy społeczne na każdym z rynków. Pozwala to znacznie silniej oddziaływać na społeczeństwo. Skupiono się głównie na Francji, Niemczech, Stanach Zjednoczonych i oczywiście Ukrainie. Wielka Brytania, Litwa, Szwajcaria, Słowacja i Włochy również są celami, jednak w mniejszej skali. Obrywa się też ryrkoszetem Izraelowi, gdzie celem jest podważenie sojuszu ze Stanami Zjednoczonymi. Tak, podziwo, my nie byliśmy celem dla tej akurat kampanii. To zresztą nie jedyne zachowania, którymi Rosja próbuje wpływać na społeczeństwo zachodu w mediach społecznościowych. Odkryto i powiązano z nimi również komentarze wycelowane w media, dziennikarzy czy osoby weryfikujące fakty w poszukiwaniu fake newsów, mające za zadanie ich zdyskredytować. Jak? Udostępniając w komentarzach spreparowane treści bez żadnego poparcia w faktach, zarzucając kłamstwa i zachęcając oczywiście do włączenia myślenia. Co robić i jak żyć? Problem ten wcale nie dotyczy jedynie Facebooka, jeżeli odniosłeś takie wrażenie. Kampanie dezinformacyjne wciąż ewoluują. Pojawiają się choćby materiały wideo na TikToku, Instagramie czy YouTubie, również z wykorzystaniem deepfake'ów. Ale treści nie trzeba wcale generować maszynowo. Można też pokazywać nagrania z jakiejś konferencji, która wygląda na pierwszy rzut oka na bardzo poważną i renomowaną, gdzie pod płaszczykiem debaty ekspertów przemyca się społeczeństwu punkt widzenia świata zgodny z ruskim mirem. Przez takie właśnie zagrania z czasem przestajemy odróżniać, co jest prawdą, a co fałszem. To naprawdę bardzo trudne. My, zwykli śmiertelnicy, stajemy naprzeciw świetnie wyszkolonym służbom wielkich mocarstw. Nie możemy się dziwić, że znajdzie się wiele osób, które połkną haczek. Czy też artykuł wywołujący w tobie silne emocje? Weź głęboki wdech i zastanów się przez chwilę, w czyim interesie leży właśnie taka twoja reakcja. Być może pozwoli ci to spojrzeć na problem szerzej i choćby poszukasz w danym temacie więcej informacji. Czy jedna narracja jest prorosyjska, a każda inna nie? Niestety często sprawy nie są wcale takie czarno-białe, jakbyśmy sobie tego życzyli. Jeżeli istnieje jakieś pole do konfliktu, a przecież gdzie dwóch Polaków, tam trzy zdania, wprawny dezinformator będzie podsycał obie strony konfliktu. Bo wcale nie liczy się promowanie jednego konkretnego światopoglądu, a po prostu dzielenie społeczeństwa. Pamiętaj o tym, wdając się w kolejną utarczkę o to, kto ma rację w komentarzach na Twixerze. Zaryzykuję stwierdzenie, że operatorzy mediów społecznościowych nie są specjalnie zainteresowani walką z dezinformacją. Skoro ktoś płaci za reklamy, to po co zadawać pytania? To on jest w tym schemacie klientem, a nie użytkownik konsumujący później te treści. I to już wszystko na dziś. Tymczasem dziękuję za Waszą uwagę i do zobaczenia. Napisy stworzone przez społeczność Amara.org