Pilne
Sprawdź relację:
Dzieje się!
Polityka Społeczeństwo

Aby wygrać z Dzikim Trenerem, Tusk i Nawrocki muszą mówić wspólnym językiem (WYWIAD)

– Jeśli dowiadujemy się jednej rzeczy z Kancelarii Prezydenta, zupełnie innej z Kancelarii Premiera, a do tego wchodzi Dziki Trener, dużo trudniej jest wierzyć w te tak zwane oficjalne informacje, nawet kiedy są prawdziwe – przestrzega Aleksandra Wójtowicz, analityczka ds. nowych technologii i cyfryzacji Polskiego Instytutu Spraw Międzynarodowych. Opowiada m.in. o konieczności jedności klasy politycznej, roli Big Techów oraz… bałtyckich elfach.

Treści dezinformacyjne się klikają nie tylko dlatego, że są dezinformacją i po prostu algorytm to kocha, ale też dlatego, że są w przemyślany sposób zaplanowane – wyjaśnia sposób działania aktorów dezinformacyjnych Aleksandra Wójtowicz z PISM. Fot. PISM

Z tego artykułu dowiesz się…

  1. Co musi się wydarzyć, aby skutecznie kontrować narracje dezinformacyjne.
  2. Jak powinni zachować się polscy politycy w obliczu zalewu prorosyjskiego przekazu.
  3. Jakie znane z Europy rozwiązania w walce z dezinformacją można zastosować w polskiej przestrzeni informacyjnej.
Loading the Elevenlabs Text to Speech AudioNative Player...

Po ataku rosyjskich dronów na Polskę 10 września sieć zalała przede wszystkim prorosyjska narracja. Według danych analityków Res Futura, najbardziej angażujące posty po ataku opublikowali Dziki Trener (popularny w mediach społecznościowych trener personalny szerzący treści m.in. antyszczepionkowe oraz antyukraińskie) oraz politycy KonfederacjiBartłomiej Pejo i Ewa Zajączkowska-Hernik.

Z kolei według Fundacji Obserwatorium Demokracji Cyfrowej, najbardziej angażujące posty również należały do polityków prawicy. Najwięcej komentarzy i reakcji zebrał Marek Jakubiak (Wolni Republikanie), który tuż po atakach podawał w wątpliwość rosyjskie pochodzenie dronów. Na „podium” zasięgów znaleźli się także Dominik Tarczyński (PiS) oraz ponownie Ewa Zajączkowska-Hernik.

Dopiero na dalszych pozycjach znalazły się konta prezydenta i premiera. Wielu komentatorów i analityków wyraziło zaniepokojenie powszechnością prorosyjskiej narracji w sieci. Aby zrozumieć, dlaczego tak się dzieje, do rozmowy zaprosiłem Aleksandrę Wójtowicz – ekspertkę Polskiego Instytutu Spraw Międzynarodowych.

Mrówcza praca się opłaca

Krzysztof Figlarz: Czy da się wygrać z Dzikim Trenerem?

Aleksandra Wójtowicz, analityczka PISM ds. nowych technologii i cyfryzacji: Dobre pytanie. Według mnie, bez zmiany strategii nie da się wygrać z Dzikim Trenerem. Ale próbować trzeba. Tak – mamy Dzikiego Trenera i ma on w mediach społecznościowych ogromne zasięgi, ale widzimy też w sieci wzrost popularności osób, które mówią o polityce, a jednocześnie nie upowszechniają intencjonalnie dezinformacji.

Spójrzmy choćby na kandydata na burmistrza Nowego Jorku, Zohrana Mamdaniego – to osobowość internetowa, która ma duże zasięgi w social mediach, jest bardzo oglądana, a treści, które publikuje, są w większości merytoryczne i oparte na danych. Można się oczywiście zgadzać lub nie zgadzać z proponowanymi przez niego rozwiązaniami, ale dane, które udostępnia, są zazwyczaj po prostu rzetelne.

34-letni Zohran Mamdani jest kandydatem Partii Demokratycznej na burmistrza Nowego Jorku. Mamdani szybko zyskał dużą popularność w internecie, szczególnie wśród pokolenia Z. Fot. EPA/SARAH YENESEL Dostawca: PAP/EPA.

Istnieją więc zalążki pozytywnych zmian. Gdyby pojawiło się więcej nowych twarzy w polityce – ludzi, którzy potrafią świetnie komunikować się w sieci, rozumieją dynamikę social mediów i potrafią angażować – mogliby oni stać się nowymi, popularnymi trenerami. Nie byliby tacy „dzicy”, ale byliby słuchani i autentyczni. Niemniej jednak brakuje osobowości, które z taką pasją chciałyby mówić o polityce opartej na faktach.

Są więc jaskółki zmiany, ale Dziki Trener ma wokół siebie całą siatkę kont, które – chcąc nie chcąc – wzmacniają jego przekaz. Trudno z tym wygrać, dopóki nie zostaną uregulowane Big Techy.

Skoro bez regulacji Big Techów trudno dziś skutecznie kontrować dezinformacyjnych celebrytów, to czy politycy – z obozu rządowego lub prezydenckiego – mają szansę przebić się z przekazem opartym na faktach? Czy to w ogóle możliwe, gdy w sieci królują Marek Jakubiak (Wolni Republikanie) czy Ewa Zajączkowska-Hernik (Konfederacja) ze swoimi dezinformacyjnymi narracjami?

To, że partie prawicowe tak skutecznie przebijają się z przekazem, nie wynika wyłącznie z tego, że „prawicowe treści się lepiej klikają”. Owszem, wśród nich zdarzają się treści ekstremalne, które z wielu powodów są bardziej angażujące – a algorytmy to lubią. Ale jest też tak, że politycy prawicy są po prostu bardzo dobrzy komunikacyjnie. Widać to było doskonale, obserwując kampanię wyborczą w sieci.

Podobnie jest ze wspomnianym Dzikim Trenerem. Budował on swoją internetową osobowość metodycznie i długo – najpierw jako charyzmatyczny trener, publikując treści o sporcie i humorystyczne nagrania. W ten sposób dotarł do szerokiego grona odbiorców o bardzo różnych poglądach. Dopiero później, w trakcie pandemii, zaczął publikować wpisy bardziej polityczne. Dziś, gdy mówi o dronach czy geopolityce, zwraca się do społeczności, którą budował przez pięć lat.

Co więc robić, by skutecznie przebijać się z przekazem opartym na faktach? Trzeba podejść do tego strategicznie – i budować spójną, długofalową komunikację.

Spójność klasy politycznej na wagę złota

Czyli klasa polityczna musi się wznieść ponad swoje partykularne interesy – Karol Nawrocki musi występować z Donaldem Tuskiem nie na jednej, lecz na wielu wspólnych konferencjach, i powtarzać ten schemat, żeby taki przekaz miał szansę w ogóle się przebić?

Tak, jeden raz to zdecydowanie za mało. W przypadku incydentu z dronami był moment, kiedy klasa polityczna w sensie instytucjonalnym – Kancelaria Prezydenta i Kancelaria Premiera – mówiły jednym głosem. Ale jeśli to dzieje się tylko raz, nie ma szansy wywrzeć trwałego efektu. Nie chodzi o to, by nagle Platforma, PiS, Konfederacja i Lewica mówiły to samo, lecz o to, aby instytucje państwa zbudowały większe zaufanie do siebie nawzajem.

Bo jeśli z Kancelarii Prezydenta dowiadujemy się jednego, z Kancelarii Premiera drugiego, a do tego wchodzi Dziki Trener, to trudno wierzyć w oficjalne informacje, nawet kiedy są prawdziwe. Tym bardziej że zaufanie do instytucji publicznych w Polsce jest bardzo niskie, co potwierdzają badania CBOS.

Pod postami Karola Nawrockiego, który informował o ataku dronów zgodnie z przekazem rządowym, pojawiło się bardzo dużo krytycznych komentarzy. Jak wiele z tych osób można w ogóle przekonać, że mówi prawdę? Czy to już jest grupa, której nie da się zmienić zdania?

Po pierwsze – nie każdy komentarz równa się osobie. Fałszywe komentarze są jednym z narzędzi wywierania wpływu na odbiorców i polityków. Aktorzy dezinformacji celowo zalewają sieć wpisami, które mają kształtować nastroje i naciskać na decydentów.

Komentarze pod postami Nawrockiego mogą więc być elementem takiej operacji. Mają przekonać prezydenta i jego otoczenie, że społeczeństwo rzekomo sprzeciwia się wsparciu dla Ukrainy, by tym samym wpłynąć na realne decyzje polityczne.

Ogromna część tych kont to fałszywe profile, trolle lub boty. To konta, za którymi stoi ktoś, kto celowo „klika” lub automaty, które wrzucają treści masowo i z góry zaplanowanie.

W Polsce istnieje też grupa wyborców antysystemowych – szacunkowo 5-10 proc. – o skrajnych poglądach, która bywa najgłośniejsza w sieci.

Dlatego w walce z dezinformacją nie chodzi o przekonywanie komentujących, lecz o docieranie z faktami do tych, którzy te komentarze czytają. To oni są prawdziwymi odbiorcami tej wojny informacyjnej.

Ekspertka PISM podkreśla znaczenie współpracy ośrodków rządowych i prezydenckich w zwalczaniu dezinformacji. Fot. PAP/Albert Zawada

Elfy kontra dezinformacja

Czy znamy jakieś rozwiązania z Europy lub ze świata, które są w stanie skutecznie kontrować taką narrację?

Tak, można wskazać trzy konkretne przykłady.

Po pierwsze – pozytywne boty. To narzędzie, które działa wtedy, gdy w sieci „robi się za gorąco”. Boty wykrywają potencjalną dezinformację i reagują komentarzem w stylu: „Halo, halo, to nie brzmi wiarygodnie – czy na pewno warto to komentować?” Wstępne badania pokazują, że taka interwencja tonuje emocje w dyskusji. Co więcej, obniża poziom zaangażowania pod dezinformującymi postami.

Po drugie – przekaz: „dezinformacja nie jest cool”. To narzędzie działa wtedy, gdy jest skierowane przeciwko konkretnej narracji. Jeśli np. ktoś powiela teorię, że drony nad Polską wysłali Ukraińcy, skuteczne może być przeciwstawienie się jej językiem emocjonalnym, ale opartym na faktach:
„Serio myślicie, że Ukraińcy to zrobili? Rosja niszczy ich domy każdego dnia, teraz chcą uderzyć w nas.” Taki przekaz brzmi autentycznie i angażująco, a jednocześnie rozbraja narrację dezinformacyjną.

Po trzecie – słynne bałtyckie elfy. To rozwiązanie z Litwy, gdzie tysiące osób angażuje się w walkę z dezinformacją po godzinach pracy – trochę jak społeczność wikipedystów. Nazwa „elfy” wzięła się stąd, że walczą z internetowymi trollami. Taki oddolny ruch społeczny przyniósł wymierne efekty: zdemaskował siatki dezinformacyjne i pomógł wzmacniać odporność informacyjną państwa.

Konieczne jest też wywieranie presji na platformy cyfrowe. Dobre praktyki regulacyjne zakładają, że platformy powinny uważniej moderować treści w sytuacjach kryzysowych – np. uznając wojnę i ataki zbrojne za „ryzyko systemowe” w rozumieniu Aktu o Usługach Cyfrowych (DSA).

Często bywa tak, że dezinformujące treści są ostatecznie usuwane, ponieważ naruszają zasady platform – zakaz publikacji treści nieautentycznych czy używania kont-trolli. Założenie jest proste: konto powinno reprezentować prawdziwą osobę, organizację lub ideę, a nie być elementem operacji informacyjnej.

Jednak skuteczność zależy od szybkości reakcji. Bo co z tego, że treść zostanie usunięta, skoro wcześniej stała się viralem i zobaczyły ją setki tysięcy użytkowników? Wtedy szkoda została już wyrządzona – a dezinformacja zaczyna żyć własnym życiem.

Role polityków i społeczeństwa są różne

Co zatem powinni zrobić odpowiedzialni politycy w sytuacji, w której się znajdujemy?

Po pierwsze – muszą dbać o siebie i o swoje kanały komunikacji. To oznacza troskę o wiarygodność przekazu i świadome budowanie zaufania. Nawet jeśli istnieje polityczny cel, warto się zastanowić, czy ważniejszy jest chwilowy przyrost followersów, czy bezpieczeństwo informacyjne.

Po drugie – muszą zadbać o higienę cyfrową swoich odbiorców. Polityk ma narzędzia, by moderować komentarze pod swoimi postami i reagować, gdy pojawia się dezinformacja lub zmanipulowane treści.

Równocześnie instytucje publiczne powinny zatrudniać osoby odpowiedzialne za analizę komentarzy. Nie chodzi o usuwanie krytyki, ale o to, by wykrywać dezinformację, zgłaszać konta trolli i botów do platform społecznościowych oraz – do czasu reakcji platformy – ograniczać ich widoczność.

Przykład? Rząd publikuje ostrzeżenie przed dezinformacją. Chwilę później znany influencer pisze pod tym postem: „Hola, hola, to nie jest żadna dezinformacja! Ukry nas zabiją!” – i zbiera kilkaset polubień. Nie wiemy jednak, czy te reakcje pochodzą od prawdziwych użytkowników, czy z sieci powiązanych kont. Efekt? Dla przeciętnego odbiorcy wiarygodność pierwotnego komunikatu zostaje podważona. Dlatego reakcja polityków i instytucji musi być szybka, spójna i konsekwentna – bo w sieci czas działa zawsze na korzyść dezinformacji.

Na zdjęciu logo koncernu Meta
Aleksandra Wójtowicz podkreśla kluczową rolę Big Techów w zwalczaniu dezinformacji w mediach społecznościowych. Fot. Getty Images

Kolejny istotny aspekt to wspieranie projektów edukacji obywatelskiej – być może także powstanie nowych „elfów”, czyli oddolnych inicjatyw walczących z dezinformacją.

Po czwarte, kluczowy jest nacisk na platformy cyfrowe. Musimy w pełni i adekwatnie wdrożyć Akt o Usługach Cyfrowych (DSA). Obecny stopień jego implementacji w Polsce nadal jest niepełny.

Trzeba powiedzieć wprost: ta odpowiedzialność nie leży po naszej stronie. To obowiązek platform cyfrowych i klasy politycznej. Żaden obywatel nie jest w stanie poświęcać całego dnia na walkę z dezinformacją – działalność fact-checkingowa to praca na pełen etat.

Co możemy zrobić my – jako społeczeństwo, jako pojedynczy użytkownicy lub grupy obywateli?

Trzeba powiedzieć wprost: ta odpowiedzialność nie leży po naszej stronie. To obowiązek platform cyfrowych i klasy politycznej. Żaden obywatel nie jest w stanie poświęcać całego dnia na walkę z dezinformacją – działalność fact-checkingowa to praca na pełen etat. Mimo to, pewne działania są w naszym zasięgu.

Po pierwsze: wybierając polityków, myślmy o swoim interesie. Warto zadać sobie pytanie: czy oddajemy głos na osoby, które nam pomagają, czy na te, które nam szkodzą? Oczywiście każdy rozumie to pojęcie nieco inaczej, ale refleksja jest niezbędna.

Po drugie: sprawdzajmy treści, które czytamy. Wyszukując informacje, można użyć dopisku „-ai”, dzięki czemu unikniemy wyników generowanych przez sztuczną inteligencję Google’a, która często się myli. To prosta metoda, by zwiększyć szansę na trafienie na bardziej rzetelne źródła.

Po trzecie: dbajmy o własną higienę cyfrową i stosujmy filtr emocjonalny. Jeśli jakaś treść wydaje się zbyt emocjonująca, by była prawdziwa – warto sprawdzić ją dwa razy przed udostępnieniem.
Przykładem są ostatnie fałszywe doniesienia dotyczące słów Donalda Trumpa o pomocy Polsce po wojnie.

Po czwarte: nie angażujmy się w dyskusje z twórcami, którzy świadomie publikują dezinformację.
Każdy komentarz czy reakcja „boostuje” ich zasięgi. Warto zapamiętać zasadę z brytyjskiej kampanii informacyjnej: Don’t feed the beast – nie karm bestii.

I wreszcie – po piąte: zachowujmy dystans do tego, co widzimy w internecie. Trzysta komentarzy pod postem nie oznacza, że „wszyscy w to wierzą” ani że „sprawa jest przegrana”. To tylko pozory masowości – często wytwarzane przez automatyczne konta i zorganizowane sieci.

Główne wnioski

  1. Zdaniem Aleksandry Wójtowicz, skuteczność dezinformacyjnych influencerów – takich jak „Dziki Trener” – wynika z długotrwałego budowania wiarygodności oraz umiejętnego wykorzystania algorytmów mediów społecznościowych. Uregulowanie działalności dużych platform cyfrowych jest niezbędne, by skutecznie z nimi walczyć.
  2. Aby oficjalne przekazy polityczne miały szansę się przebić, konieczne są: spójna komunikacja instytucji państwowych, poprawa jakości komunikacji klasy politycznej oraz szybkie reagowanie na dezinformację.
  3. W walce z fałszywymi narracjami liczą się nie tylko rozwiązania systemowe, ale też presja na platformy cyfrowe, rozwój narzędzi takich jak pozytywne boty czy „elfy” oraz edukacja obywatelska. Na poziomie indywidualnym kluczowe jest krytyczne myślenie, dbałość o higienę cyfrową i unikanie wzmacniania treści dezinformacyjnych.