Kategorie artykułu: Polityka Społeczeństwo

Przeglądasz X? Twoje poglądy polityczne mogą skręcić w prawo – wnioski z badań naukowców

Najnowsze badanie naukowe opublikowane w czasopiśmie „Nature” potwierdza to, co obserwatorzy polityki w sieci widzieli od dawna. Algorytmy platformy X promowały treści konserwatywne bardziej niż lewicowo-liberalne. Co jednak zaskakuje – czytelnicy treści podsuwanych przez algorytm zmieniali poglądy polityczne. Platforma Elona Muska jawnie wpływa na procesy polityczne w USA. A w Polsce?

Na łamach „Nature” opublikowano artykuł naukowy, w którym autorzy badają polityczne efekty działania algorytmu na X. Fot. EPA/Adam Vaughan.

Z tego artykułu dowiesz się…

  1. O wynikach badań dotyczących działania algorytmu na platformie X.
  2. O efektach działania algorytmu na X.
  3. O wyzwaniach dla Polski i Europy w kontekście higieny medialnej i redukcji wpływu algorytmów na politykę.
Loading the Elevenlabs Text to Speech AudioNative Player...

X (dawniej nazywany Twitterem) od dawna nie jest neutralną platformą społecznościową. Już pobieżna lektura na polskojęzycznej części portalu X naraża użytkownika na zalew fake newsów, dezinformacji, czy – i to w najlepszym razie – wpisy botów realizujących daną agendę polityczną, w tym również ze wschodu.

Zjawisko w jeszcze większej skali można zaobserwować na anglojęzycznej części portalu. W szczególności po przejęciu Twittera przez Elona Muska otwarcie wspierającego Donalda Trumpa i ruch MAGA. Muska podejrzewało się także o ręczne sterowanie algorytmem w celu zwiększenia zasięgów protrumpowskiej narracji. Sam Musk również jawnie atakował podmioty, które w danym momencie stanowiły sól w oku administracji USA. W Europie były to m.in. niemiecki i brytyjski rząd, przewodnicząca KE czy polski szef MSZ Radosław Sikorski.

To, co wszyscy użytkownicy obserwowali gołym okiem, od dawna znalazło potwierdzenie w badaniach. Na łamach „Nature” opublikowano artykuł naukowy, w którym autorzy badają polityczne efekty działania algorytmu na X. Same wnioski niekoniecznie zaskakują, ale ich skala – już tak.

Algorytm premiuje ideologię i rujnuje rzetelne informacje

Germain Gauthier, Roland Hodler, Philine Widmer i Ekaterina Zhuravskaya w 2023 r. zbadali niemal 5 tys. użytkowników X z USA. Przez 7 tygodni badacze sprawdzali co będzie pokazywane użytkownikom w zależności od wyświetlania treści w porządku chronologicznym lub proponowanym przez algorytm. Użytkownik może wybrać którąś z opcji u góry witryny, jednak domyślnie widzi się treści proponowane przez algorytm (sekcja „Dla Ciebie”).

Jaki zatem był wpływ algorytmu na użytkowników? Przede wszystkim bardziej angażował osoby, które wcześniej korzystały z widoku chronologicznego, a w ramach badania musiały przejść na algorytm. W tej podgrupie badani byli o 5,2 pkt proc. mniej chętni do ograniczania czasu spędzanego na platformie w porównaniu do użytkowników, którzy pozostali przy widoku chronologicznym.

Według badaczy taki efekt był możliwy dzięki promowaniu postów o wyższych wskaźnikach zaangażowania (polubienia, komentarze). Z badań wynika, że użytkownicy, którzy przeglądali X w trybie algorytmicznym, widzieli treści o charakterze rozrywkowym i ideologicznym o kolejno 21 proc. i 27,4 proc. częściej niż badani przeglądający posty w porządku chronologicznym.

Co jeszcze bardziej symptomatyczne – na działaniu algorytmu traciły konta tradycyjnych mediów. Posty z amerykańskich redakcji były podsuwane użytkownikom algorytmicznego feedu o ponad 58 proc. rzadziej niż użytkownikom feedu chronologicznego. Taki efekt jednoznacznie wskazuje na systemową defaworyzację mediów kosztem postów pochodzących z kont obliczonych na zwiększanie zaangażowania.

Wpływ algorytmu nie dotyczył jednak tylko zwiększenia czasu spędzonego na scrollowaniu platformy. Algorytmy nie były neutralne politycznie.

X w służbie Partii Republikańskiej

Algorytmy X systemowo „dopalały” widoczność postów o rysie konserwatywnym aż o 20 proc. Liczba robi tym większe wrażenie, kiedy porówna się analogiczną premię dla postów lewicowych lub liberalnych. Posty lewicowo-liberalne zwiększyły swoją ekspozycję zaledwie o 3,1 proc.

Najbardziej może jednak zaskoczyć efekt zanotowany wśród użytkowników, którzy w ramach badania przełączyli się z trybu chronologicznego na algorytmiczny.

To właśnie wśród tej grupy o 4,7 pkt proc. wzrosło poparcie dla priorytetów partii Donalda Trumpa po przełączeniu na algorytm. Jeszcze większy skok (o 5,5 pkt proc.) zaobserwowano w ich poglądach na toczące się śledztwa przeciwko Trumpowi. Znacznie częściej uznawali je za niedopuszczalne i motywowane politycznie. Największą zmianę zanotowano z kolei przy badaniu sentymentu wobec Wołodymyra Zełenskiego. Pierwotnie 33,4 proc. badanych z tej grupy negatywnie postrzegało prezydenta Ukrainy. Po 7 tygodniach używania algorytmu odsetek ten wzrósł aż o 7,4 pkt proc., dobijając do poziomu 40,9 proc.

Ikona wykres interaktywny Wykres interaktywny

Zakonserwowanie konserwatyzmu wśród użytkowników X

Spuścizną pozostałą po zakończeniu badania był także wzrost liczby obserwowanych kont o charakterze prawicowym przez użytkowników zmuszonych do feedu algorytmicznego. Zdaniem badaczy to zjawisko wzmacnia efekt skrętu w prawo w dłuższej perspektywie. Co ważne, zmiana w odwrotną stronę nie wykazała większych modyfikacji w zachowaniach. Użytkownicy używający wcześniej feedu algorytmicznego, którym w trakcie badań włączono widok chronologiczny, nie wykazali zauważalnych zmian w swoich poglądach.

Autorzy badania wskazują, że wyniki nie odzwierciedlają obecnego obrazu sytuacji, bo od przeprowadzenia badania w 2023 roku algorytm się zmienił. Sami badacze wskazują również, że rzeczywisty efekt może być nieco mniejszy, bo badano jedynie aktywnych użytkowników regularnie korzystających z platformy.

Nie zmieniło się jednak to, że na X aktorzy sceny politycznej forsują swoją agendę przez oczernianie przeciwników czy sianie dezinformacji. Wciąż także widzimy wpisy Elona Muska o wielomilionowych zasięgach wycelowane zwłaszcza w Unię Europejską. Dzięki pracy naukowców poznaliśmy efekty systemowego angażowania algorytmu platformy X do wpływania na preferencje polityczne jej użytkowników.

Efekt sponsora i pułapka zaangażowania

Wynikami badań nie jest zaskoczona dr hab. Małgorzata Molęda-Zdziech, kierowniczka Katedra Studiów Politycznych ze Szkoły Głównej Handlowej w Warszawie.

Warto spojrzeć na to zjawisko z szerszej perspektywy. Zwróciłabym tu uwagę na tak zwany efekt sponsora. Wcześniejsze badania dotyczące platform firmy Meta sugerowały brak tego typu wpływów. Problem w tym, że były one realizowane we współpracy z samą korporacją, która udostępniała naukowcom dane. Nawet jeśli nie nazywamy tego wprost sponsoringiem, to tego typu współpraca powinna budzić nasz uzasadniony dystans. Nowe badanie, zrealizowane już w pełni niezależnie, ukazuje zupełnie odmienne wyniki, mimo że dotyczy innej platformy i zostało przeprowadzone zaledwie rok po poprzednich analizach – zauważa badaczka

Jej zdaniem, taki obraz sytuacji wynika również z długiej historii rozwoju mediów.

– Przypomina mi się tu słynna książka Neila Postmana „Zabawić się na śmierć” z 1985 r., w której opisywał, jak telewizja spłaszcza, tabloidyzuje i infantylizuje dyskurs polityczny. Zastąpiła ona merytoryczną kampanię grą na emocjach, co bezpośrednio wpłynęło na postawy wyborców. Z kolei Giovanni Sartori, włoski teoretyk demokracji, w swojej głośnej pracy „Homo videns” dowodził, jak samo wprowadzenie obrazu do przekazu zmienia jego naturę i uwagę odbiorcy. Dawne media odwoływały się przede wszystkim do emocji. Nowe media idą znacznie dalej: potrafią zaangażować niemal wszystkie nasze zmysły, a dodatkowo wprowadzają celową dezinformację. Kategoria „zaangażowania” staje się tu kluczowa, zwłaszcza że w erze deepfake'ów nie możemy już być pewni prawdziwości tego, co widzimy – podsumowuje autorka książki „Czas celebrytów. Mediatyzacja życia publicznego”.

Konieczność trudnego kompromisu w UE

Czy zatem najnowsze dowody naukowe mogą się stać impulsem dla całej Europy, by śladem Francji przyjąć bardziej proaktywną postawę wobec amerykańskich big techów?

Małgorzata Molęda-Zdziech zgadza się z tą tezą, ale zarazem zauważa pewne trudności.

– Czym innym są decyzje podejmowane z pozycji pojedynczego państwa jak Francja, a czym innym wypracowywanie rozwiązań wewnątrz zróżnicowanej wspólnoty 27 państw Unii Europejskiej. Proces dochodzenia do kompromisu, zgodny z ustaleniami traktatowymi, siłą rzeczy trwa dłużej. Przyspieszaczem tych regulacji może okazać się jednak rosnąca konkurencja i fala dezinformacji ze strony Chin. Dla Polski tradycyjnie największym zagrożeniem jest dezinformacja rosyjska, ale chińskie wpływy stają się coraz bardziej palącym problemem dla państw takich jak Francja – podkreśla Małgorzata Molęda-Zdziech.

Badaczka uważa, że takie dowody są bardzo potrzebne, ponieważ regulacje unijne powstają na podstawie wiedzy naukowej i dowodach naukowych (science based policy i evidence based policy).

– Musimy jednak pamiętać, w jak trudnej sytuacji znajduje się dziś odbiorca. Oglądając tradycyjną telewizję, mamy świadomość, że patrzymy na aktorów wcielających się w role. W nowych mediach często ulegamy manipulacji całkowicie nieświadomie, dowiadując się o fałszerstwie z dużym opóźnieniem. Odbiorca nie jest równym partnerem dla tej technologii. Poddawany jest manipulacjom w różnorodnych formach. Dlatego tak kluczowe jest budowanie cyfrowej higieny i dbanie o zróżnicowaną „dietę medialną”. Jeśli czerpiemy informacje z różnych źródeł – z prasy, literatury czy bezpośrednich rozmów z osobami spoza naszej bańki – mamy szansę zrównoważyć negatywny wpływ algorytmów i nabrać dystansu – apeluje Małgorzata Molęda-Zdziech.

Polskie problemy to nie tylko narażanie na dezinformację

Szefowa Katedry Studiów Politycznych SGH widzi również zagrożenie dla odbiorców w naszym kraju.

Jesteśmy krajem, w którym od 80 proc. do nawet 90 proc. młodych ludzi traktuje nowe media – ze szczególnym uwzględnieniem TikToka – jako jedyne źródło informacji. Średnia w Unii Europejskiej oscyluje wokół 50 proc. To przerażające.

– Niestety jako Polska mamy w tym obszarze ogromny problem. Z danych, na które powołuje się m.in. Komisja Europejska, a także z naszych krajowych badań CBOS, wyłania się bardzo niepokojący obraz. Jesteśmy krajem, w którym od 80 proc. do nawet 90 proc. młodych ludzi traktuje nowe media – ze szczególnym uwzględnieniem TikToka – jako jedyne źródło informacji. Średnia w Unii Europejskiej oscyluje wokół 50 proc. To przerażające, ponieważ obraz świata tej grupy jest kształtowany przez algorytmy niemal w stosunku jeden do jednego. Jeśli zestawimy to z niskim poziomem czytelnictwa w Polsce (ok. 40 proc. przeczytało rocznie jedną książkę), uświadamiamy sobie, że młodzi odbiorcy często nie dysponują narzędziami do krytycznego myślenia i weryfikacji docierających do nich treści – podsumowuje Małgorzata Molęda-Zdziech.

Główne wnioski

  1. Badanie opublikowane w czasopiśmie „Nature” dowodzi silnego wpływu algorytmu platformy X na poglądy polityczne części użytkowników. Eksperyment wykazał systemowe promowanie treści konserwatywnych oraz profili aktywistów przy jednoczesnym drastycznym ograniczaniu zasięgów tradycyjnych mediów.
  2. Najnowsze i w pełni niezależne wyniki rzucają nowe światło na ukrytą architekturę mediów społecznościowych. Ewolucja środków przekazu doprowadziła do sytuacji, w której merytoryczny dyskurs ustępuje miejsca grze na emocjach i celowej dezinformacji. Stanowi to ogromne wyzwanie dla europejskich prawodawców.
  3. Dr hab. Małgorzata Molęda-Zdziech z SGH podkreśla ogromne znaczenie w pełni niezależnych badań nad architekturą mediów społecznościowych. Jej zdaniem zjawisko algorytmicznej manipulacji stanowi szczególne zagrożenie dla polskiego społeczeństwa ze względu na niepokojące nawyki medialne młodzieży. Zdecydowana większość młodych Polaków traktuje platformy społecznościowe jako jedyne źródło wiedzy o świecie przy niezwykle niskim wskaźniku czytelnictwa. Dr hab. Molęda-Zdziech apeluje o pilne budowanie cyfrowej higieny oraz dbanie o zróżnicowaną dietę informacyjną w celu obrony przed zautomatyzowanymi systemami rekomendacji.