Czatbocie, na kogo mam zagłosować? O coraz większej roli AI w politycznych wyborach
Algorytmy czatbotów potrafią przekonywać skuteczniej niż tradycyjne materiały wyborcze, co rodzi nowe wyzwania dla systemów demokratycznych. Partie polityczne już teraz optymalizują swoje komunikaty pod kątem sztucznej inteligencji, aby zdominować internetowe rekomendacje. Czy wyborcze decyzje w 2027 r. podejmie za nas AI?
Z tego artykułu dowiesz się…
- Ilu Brytyjczyków korzysta z AI, by zdobywać informacje polityczne.
- Dlaczego odpowiedzi AI wydają się przekonujące.
- Kto, według ekspertów, będzie starał się wpływać na wyniki podawane przez AI.
Sztuczna inteligencja w kampaniach wyborczych przestała być wyjątkiem – stała się powszechnym, wciąż niedostatecznie kontrolowanym zjawiskiem. Laboratorium tego były Węgry, a podobne zjawiska zobaczymy w każdej kampanii. O dezinformacji i deepfake’ach mówi się od dawna, ale pojawia się nowy trend: co piąty Brytyjczyk używa AI, by szukać informacji o polityce, a niemal co czwarty korzysta z podsumowań AI w wyszukiwarkach.
AI jako doradca polityczny?
Mniej zbadanym, choć nie mniej istotnym, tematem jest wcielanie się AI w rolę doradcy politycznego. Nie chodzi jednak o partyjnego spindoktora czy dyrektora kampanii wyborczej, lecz o rolę „powiernika” zwykłego obywatela.
Zwykli ludzie coraz częściej używają AI do konsultowania swoich politycznych wyborów. Skoro za pomocą AI porównujemy zalety i wady rowerów, słuchawek czy obuwia do biegania, to co stoi na przeszkodzie, aby zapytać bota o porównanie programów wyborczych polityków?
Z takiego założenia wychodzi już 20,3 proc. Brytyjczyków. Z najnowszego badania naukowców z London School of Economics wynika, że już co piąty Brytyjczyk używa czatbotów do szukania informacji o polityce. Z kolei niemal co czwarty (24,6 proc.) czerpie informacje polityczne z widoku AI Overview, który stanowi podsumowanie informacji z wyszukiwanych linków w wyszukiwarce Google.
Co chyba jeszcze istotniejsze, skala użycia AI do wyszukiwania informacji politycznych rośnie w brytyjskim społeczeństwie. Jeszcze w 2024 r. tylko 9 proc. Brytyjczyków wykorzystywało AI do szukania informacji politycznych. W ciągu zaledwie dwóch lat wzrost zainteresowania wyniósł kilkanaście punktów procentowych.
Z badania wynika też, że wśród osób używających AI do wyszukiwania informacji politycznych najczęstszym motywem jest fact-checking informacji znalezionych gdzie indziej (35,8 proc.). Niewiele mniej, bo 33,5 proc., szuka informacji na temat konkretnego zagadnienia politycznego, a co szósty respondent (17,1 proc.) szuka informacji o konkretnym polityku. 4,5 proc. badanych przyznało, że wprost zapytało czatbota o to, na kogo powinno zagłosować w wyborach samorządowych w Wielkiej Brytanii.
AI postrzegane jako neutralne narzędzie
I choć ten odsetek nie wydaje się wysoki, to niesie duży potencjał wzrostu. To bowiem inny wniosek z badania wydaje się kluczowy dla zrozumienia, dlaczego znaczenie AI w kampaniach będzie tylko rosło. Około połowy ankietowanych uznaje wyniki podawane przez AI za „zwykle trafne”, a około 25 proc. za „całkowicie trafne”. Mniej niż 2 proc. ankietowanych uznaje informacje podawane przez AI za całkowicie nietrafne.
Zdecydowana większość, bo ponad 75 proc. badanych, postrzega informacje podawane przez AI jako neutralne. Niemal co piąty z nich deklaruje, że zmienił zdanie o danej sprawie lub polityku po użyciu czatbota.
Zdecydowana większość, bo ponad 75 proc. badanych, postrzega informacje podawane przez AI jako neutralne. Niemal co piąty z nich deklaruje, że zmienił zdanie o danej sprawie lub polityku po użyciu czatbota.
To oczywiście tylko jedno badanie z jednego kraju. Wyniki pokazują jednak, że znaczenie generatywnej sztucznej inteligencji w kampaniach wyborczych już dziś jest zauważalne. A to znaczy, że najprawdopodobniej czatboty już wkrótce staną się jedną z kluczowych osi walki polityków o głosy. Jeżeli większość badanych uważa, że wypowiedzi AI są trafne i neutralne, to naturalne wydaje się, że polityczni spindoktorzy właśnie tam przekierują swoje wysiłki.
Perswazja silniejsza niż prawda
W innym badaniu opublikowanym w „Science” czytamy, że czatboty są niezwykle przekonujące przede wszystkim ze względu na gęstość informacji, którą użytkownik otrzymuje w odpowiedzi na zadane pytanie. Najwyższą skuteczność w przekonywaniu wyborcy do swoich racji osiągają modele, które są w stanie dosłownie zasypać użytkownika faktami i argumentami.
Badacze wskazują jednak na podstawowy problem i zagrożenie. Optymalizacja AI pod kątem zwiększania skuteczności przekonywania prowadzi do systematycznego spadku prawdomówności odpowiedzi i ich faktograficznej precyzji.
Optymalizacja AI pod kątem zwiększania skuteczności przekonywania prowadzi do systematycznego spadku prawdomówności odpowiedzi i ich faktograficznej precyzji.
Do podobnych wniosków dochodzą także naukowcy w badaniu opublikowanym w „Nature”. Badacze pod wodzą Hause’a Lina z MIT przebadali Amerykanów, Kanadyjczyków oraz Polaków przed ostatnimi wyborami w tych krajach.
Z badania wynika, że czatboty były około czterokrotnie bardziej przekonujące niż tradycyjne materiały wideo wykorzystywane w kampanii. A w przypadku Polski i Kanady boty były jeszcze skuteczniejsze niż w USA.
„Nie wszystkie przedstawione przez nie informacje prezentowane jako fakty były jednak poprawne. We wszystkich trzech krajach modele AI opowiadające się za kandydatami z prawej strony sceny politycznej częściej przedstawiały nieprawdziwe twierdzenia niż modele agitujące za kandydatami centrowymi. Jest to zgodne z wcześniejszymi badaniami pokazującymi, że w USA to wyborcy prawicy częściej udostępniają treści wprowadzające rozmówców w błąd. Modele generatywne wydają się powielać nierówności informacyjne obserwowane w społeczeństwie” – opisywała dr Gabriela Czarnek z Uniwersytetu Jagiellońskiego, która była współautorką badania.
Wyścig o algorytmiczną dominację to wyścig o głosy
Część polityków tę konkretną lekcję od naukowców odrobiła bardzo szybko. Szczególnie charakterystycznym obecnie przykładem jest Hiszpania, co opisali analitycy z Europejskiego Kolektywu Analitycznego Res Futura.
Badacze z Otwartego Uniwersytetu Katalonii w Barcelonie sprawdzili, jak zachowują się czatboty w hiszpańskich uwarunkowaniach politycznych. Zespół przeprowadził ponad 1,2 tys. zapytań w najpopularniejszych czatbotach. Pytania przygotowano na podstawie realnych problemów obywateli wymienianych w badaniach państwowego ośrodka sondażowego, np. „na kogo powinienem zagłosować, jeśli martwi mnie bezrobocie”.
Wnioski? Socjaldemokratyczna partia PSOE premiera Pedro Sáncheza zdecydowanie prowadzi w rekomendacjach – niezależnie od platformy czy języka zapytania. Co ciekawe, najczęściej w odpowiedziach pojawia się prawicowa Partido Popular, ale rekomendację otrzymuje tylko w niecałych 30 proc. przypadków.
Co ważne, platformy w różnym stopniu formułowały rekomendacje. ChatGPT i Grok częściej wprost wskazywały konkretne partie, a Gemini i Copilot starały się być bardziej neutralne. Niezależnie jednak od platformy, w odpowiedziach dominowało PSOE. Dlaczego?
Algorytmy skuteczniej odczytywały zawartość stron PSOE, które były uporządkowane i zoptymalizowane pod kątem przetwarzania danych przez czatboty. Na stronach PSOE nie brakuje Q&A czy ustrukturyzowanych tabel. Na pozostałych stronach tego brakowało.
Algorytmy skuteczniej odczytywały zawartość stron PSOE, które były uporządkowane i zoptymalizowane pod kątem przetwarzania danych przez czatboty.
„Wychowaniem” algorytmów pod konkretne treści można także sterować poprzez zmasowane „zalewanie” platform identycznymi przekazami.
Taką strategię obrała nieprzypadkowo partia Reform UK Nigela Farage’a, największy triumfator niedawnych wyborów samorządowych w Wielkiej Brytanii. Dzięki masowo publikowanym komentarzom w sieci Reform UK była wskazywana w aż 88 proc. odpowiedzi AI Overview w wyszukiwarce Google. To, co jeszcze kilka lat temu można by zaklasyfikować jako irytujący spam, dziś okazuje się sposobem na skuteczne dotarcie do niemal każdego internauty.
Nowe regulacje na wczoraj
Zdaniem Jakuba Szymika, prezesa Fundacji Obserwatorium Demokracji Cyfrowej, to nie przypadek.
– Wyszukiwanie w LLM coraz częściej zastępuje tradycyjne wyszukiwanie. Spójrzmy, jak Google eksponuje opcję AI Overview czy na rosnącą popularność ChatGPT – mówi Jakub Szymik.
Jak dodaje, już teraz na rynku oferowane są usługi mające na celu lepsze wyeksponowanie danych treści w czatbotach.
– Na rynku są dostępne narzędzia, które oferują już usługi „SEO dla modeli językowych”, aby lepiej pozycjonować konkretne treści. Trudno się spodziewać, żeby polscy politycy nie korzystali z nich przed wyborami w 2027 r. Z podobnych taktyk korzystają aktorzy dezinformujący, którzy masowo zalewają przestrzeń tekstami, aby modele traktowały podane tam informacje poważnie. Mimo że firmy takie jak Anthropic deklarują, że testują swoje systemy pod kątem neutralności – zauważa prezes Fundacji Obserwatorium Demokracji Cyfrowej.
Kampania, jakiej jeszcze nie było
Biorąc to wszystko pod uwagę, możemy być pewni, że czeka nas intensyfikacja politycznych narracji przed 2027 r. na skalę, jakiej jeszcze nie widzieliśmy.
Na razie, według danych Res Futury, najlepiej skrojone pod modele językowe witryny mają mniejsze partie polityczne – Razem, Konfederacja, a po stronie rządowej Polska 2050. Najwięksi gracze naszej sceny politycznej wypadają nieskutecznie, m.in. z powodu niezaktualizowanych programów wyborczych na ich witrynach, przechowywanych w archaicznych formach. Możemy być jednak pewni, że przed 2027 r. to ulegnie zmianie.
Niezależnie jednak od dostosowania stron pod modele, piłka w dużej mierze wciąż jest w rękach amerykańskich właścicieli największych modeli. W każdej chwili któryś z technologicznych gigantów może nastroić własny model pod daną partię albo przeciwko niej ze znanych sobie powodów. A jeśli nie firma technologiczna, to politycy.
Wątpliwości podziela także Jakub Szymik.
– Wstępne badania pokazują, że wyjątkowo istotne w kontekście dużych czatbotów jest pozycjonowanie w Wikipedii, która jest głównym źródłem odpowiedzi dotyczących polityków, przynajmniej w Stanach Zjednoczonych. Politycy mają jednak zakusy na ręczne sterowanie wynikami modeli. Obecny prezydent USA przyjął rozporządzenie przeciwko „woke AI”, mające ograniczać treści dotyczące mniejszości – mówi Jakub Szymik.
Tym bardziej istotne jest, aby państwa członkowskie UE i sama Unia pilnie przyjrzały się preferencjom modeli i opracowały regulacje chroniące transparentność procesów demokratycznych. W Hiszpanii to już się dzieje. W Polsce taka dyskusja jest koniecznością w kontekście wyborów parlamentarnych w 2027 r. Czasu jednak wcale nie jest dużo, a potencjalna skala dezinformacji i „karmienia” czatbotów skrajnymi narracjami tylko rośnie.
Główne wnioski
- Społeczeństwo zaczyna traktować sztuczną inteligencję jako obiektywne źródło wiedzy politycznej i coraz chętniej opiera na niej swoje decyzje wyborcze. W Wielkiej Brytanii rośnie odsetek obywateli wykorzystujących czatboty do weryfikacji faktów oraz poszukiwania informacji o konkretnych kandydatach. Co ważne, zdecydowana większość użytkowników uznaje generowane w ten sposób odpowiedzi za neutralne i trafne.
- Modele językowe wykazują znacznie wyższą skuteczność perswazyjną niż tradycyjne formy kampanii ze względu na ogromne zagęszczenie podawanych informacji. Zwiększanie tej skuteczności często odbywa się kosztem precyzji faktograficznej i prowadzi do niebezpiecznego powielania dezinformacji. Zjawisko to jest szczególnie widoczne w przypadku algorytmów promujących polaryzujące narracje polityczne.
- Ugrupowania polityczne dostosowują swoje strony internetowe do wymogów sztucznej inteligencji, aby zdominować wirtualne rekomendacje. Odpowiednia optymalizacja treści pozwala partiom skutecznie docierać do wyborców z pominięciem tradycyjnych kanałów komunikacji. Brak spójnych regulacji prawnych w tym zakresie stwarza realne zagrożenie dla przejrzystości przyszłych procesów wyborczych.