Brytyjski ekspert: „Ludzie nie wiedzą już, w co wierzyć”. Jak sztuczna inteligencja staje się nową bronią w kampaniach wyborczych? (WYWIAD)
Cyfrowe fałszywki publikowane w dniu głosowania, bezwartościowy „AI slop” zalewający internet oraz zagraniczni gracze monetyzujący polityczny chaos – to nowe realia europejskich kampanii. Sam Stockwell w rozmowie z XYZ tłumaczy, dlaczego przestarzałe prawo wyborcze pozostaje dziś bezradne wobec technologii i wskazuje rozwiązania, które w polskim kontekście należałoby wprowadzić „na wczoraj”.
Z tego artykułu dowiesz się…
- W jaki sposób sztuczna inteligencja jest już dziś wykorzystywana w kampaniach wyborczych.
- W których obszarach – zdaniem brytyjskiego analityka – należy upatrywać największych zagrożeń dla procesów wyborczych związanych z użyciem AI.
- Kto najbardziej zyskuje na ingerencjach oraz jakie rozwiązania proponuje ekspert.
Krzysztof Figlarz, XYZ: Za kilka tygodni odbędą się wybory parlamentarne na Węgrzech, a w listopadzie wybory uzupełniające do Kongresu USA. W swoich analizach wielokrotnie pisał pan o ingerencjach z wykorzystaniem sztucznej inteligencji. Czy nadchodzące – lub jakiekolwiek przyszłe – wybory mogą zostać zagrożone przez AI?
Sam Stockwell: Tak, zdecydowanie istnieje takie ryzyko. Kluczowe znaczenie ma to, jak wyrównana jest rywalizacja między głównymi partiami lub kandydatami. Cyfrowe fałszywki – czyli realistyczne materiały generowane przez AI, podszywające się pod prawdziwe wypowiedzi czy nagrania kandydatów – mogą w krótkim czasie silnie wpłynąć na opinię publiczną.
Wiralowe oszustwa krążą nad urnami
Jeśli taka cyfrowa fałszywka stanie się wiralem w momencie otwarcia lokali wyborczych, to będzie powód do poważnego niepokoju. Wyborcy mogą zobaczyć wysoce realistyczny film lub obraz, który ukształtuje ich opinię lub skłoni do zmiany decyzji. W wyborach rozstrzyganych niewielką przewagą – rzędu kilku punktów procentowych – wiralowa, sfabrykowana treść uderzająca w kandydata w dniu głosowania może okazać się skuteczna.
Warto wiedzieć
Sam Stockwell
Sam Stockwell jest starszym analitykiem w Centre for Emerging Technology and Security działającym przy Alan Turing Institute. Zajmuje się bezpieczeństwem technologicznym oraz wpływem AI na ekosystem informacji. Specjalizuje się w zagadnieniach dezinformacji, moderacji treści i ochrony procesów wyborczych. Jest absolwentem King's College London.
Uwaga: poglądy Sama Stockwella wyrażone w wywiadzie nie są oficjalnym stanowiskiem Instytutu Alana Turinga.
W poprzednich wyborach obserwowaliśmy jednak, że AI działała głównie jako narzędzie wzmacniające przekonania osób już skłonnych poprzeć kandydata korzystającego z cyfrowej fałszywki. Odbiorcy konsumują tego typu treści przede wszystkim w mediach społecznościowych. Popularne konta, które je rozpowszechniają, zazwyczaj reprezentują poglądy ideologicznie zbieżne z narracją danego materiału.
Podczas wyborów prezydenckich w USA w 2024 r. sfabrykowane materiały wymierzone w Kamalę Harris były udostępniane głównie przez zwolenników Donalda Trumpa. Dotychczas wykorzystanie cyfrowych fałszywek prowadziło przede wszystkim do efektu polaryzacji – pogłębiało istniejące przekonania polityczne, zamiast masowo zmieniać postawy wyborców. Wraz z rosnącym realizmem i dostępnością technologii nasilają się jednak obawy, że AI może w przyszłości oddziaływać znacznie silniej.
Nieczysta gra polityczna syntetycznymi spotami
Zatrzymajmy się przy bieżących kampaniach. W ostatnich tygodniach na Węgrzech pojawił się wygenerowany przez AI spot wyborczy partii Fidesz, wymierzony w opozycyjne ugrupowanie TISZA. Gdzie dziś leży większe zagrożenie – po stronie zewnętrznych aktorów próbujących ingerować w europejską infosferę czy krajowych graczy walczących z własnymi oponentami?
To zależy od państwa. Niektóre kraje są bardziej narażone na działania wrogich podmiotów zagranicznych, które próbują wpływać na demokratyczne procesy wyborcze – zwłaszcza tam, gdzie potencjalne korzyści geopolityczne są wyraźne.
Jednocześnie to krajowi politycy, kandydaci i działacze oddolni wyznaczają standardy przejrzystości oraz etyki kampanii. Nie należy zakazywać im korzystania z narzędzi AI. Są one relatywnie tanie, łatwe w użyciu i w pewnym sensie demokratyzują dostęp do zasobów kampanijnych. Mniejsze ugrupowania, dysponujące ograniczonym zapleczem medialnym, mogą dzięki nim skuteczniej docierać do wyborców.
Problem pojawia się wtedy, gdy treści generowane przez AI są rozpowszechniane bez jasnego oznaczenia ich syntetycznego charakteru. W Wielkiej Brytanii i w państwach UE wciąż brakuje spójnych standardów transparentności w tym zakresie.
Ponieważ obrazy, filmy i nagrania audio generowane przez AI są dziś wyjątkowo realistyczne, odróżnienie faktów od fikcji staje się coraz trudniejsze. Prowadzi to do niebezpiecznego zjawiska, w którym odbiorcy przestają mieć pewność, co jest prawdą. W efekcie uruchamia się mechanizm erozji zaufania – do informacji, instytucji publicznych i samego procesu wyborczego.
W UE podejmowane są próby zobowiązania partii politycznych do ujawniania wykorzystywania narzędzi AI w trakcie kampanii oraz do powstrzymywania się od rozpowszechniania cyfrowych fałszywek z wizerunkiem konkurencyjnych kandydatów. Wysoce realistyczne, spersonalizowane materiały syntetyczne zacierają bowiem granicę między rzeczywistością a manipulacją. Krajowi politycy nie powinni więc dokładać własnej cegiełki do problemu, który i tak jest potęgowany przez ingerencje zewnętrzne.
Erozja zaufania publicznego żyznym podglebiem dla dezinformacji
Jak głęboka jest dziś erozja zaufania do instytucji publicznych w Europie? I czy to ostatni moment, by politycy podjęli realne działania naprawcze?
Erozja jest wyraźna. Obserwujemy rosnącą skalę tzw. „AI slop” – masowo produkowane, niskiej jakości treści generowane przez AI, takie jak memy czy proste grafiki, które nie niosą wartości informacyjnej. Skoro odbiorcy nie są w stanie zweryfikować, czy dana treść jest autentyczna, czy syntetyczna, narasta poczucie dezorientacji.
Podobny mechanizm był widoczny niedawno w Iranie podczas protestów przeciwko władzom. Tamtejsze władze podważały autentyczność nagrań przedstawiających potencjalne naruszenia praw człowieka, sugerując, że materiały mogły zostać wygenerowane przez AI w celu zdyskredytowania państwa. W kontekście wyborów taki mechanizm jest szczególnie groźny. Wystarczy wskazać realistyczne nagranie rzekomego dorzucania głosów do urn czy korupcji, by zaszczepić wątpliwości co do wyniku głosowania. Nawet jeśli materiał całkowicie sfabrykowano, jego pojawienie się może podważyć legitymizację procesu i prowadzić do żądań powtórzenia wyborów.
Kto zatruwa chatboty?
W Rumunii podważenie zaufania publicznego doprowadziło do powtórzenia wyborów prezydenckich. Również w Polsce pojawiały się próby rozpowszechniania syntetycznych nagrań sugerujących fałszerstwa wyborcze. W swoich analizach pisał pan także o zjawisku „zatruwania chatbotów AI”. Na czym ono polega?
To nowy i niepokojący trend. Coraz więcej osób czerpie informacje z chatbotów AI zintegrowanych z wyszukiwarkami i mediami społecznościowymi. Aby odpowiadać na bieżące pytania – np. dotyczące wyborów – systemy te korzystają z aktualnych danych dostępnych w otwartym internecie, a nie wyłącznie z wcześniejszych zbiorów treningowych. To sprawia, że stają się podatne na manipulacje poprzez celowe wprowadzanie do sieci dużej liczby spreparowanych treści.

Sieci dezinformacyjne – w tym podmioty powiązane z Rosją – zorientowały się, że zalewanie internetu fałszywymi artykułami na tematy słabo relacjonowane przez tradycyjne media może wpływać na odpowiedzi chatbotów. Jeśli w przestrzeni online dominują spreparowane treści, systemy oparte na aktualnych danych mogą je podchwycić i przekazać użytkownikom jako wiarygodne źródła.
Podczas wyborów w Australii powiązana z Rosją sieć dezinformacyjna zniekształciła odpowiedzi chatbotów dotyczące wojny w Ukrainie, zalewając internet fałszywymi materiałami. Chatboty cytowały te źródła – często bez jasnego wskazania ich pochodzenia – nadając im pozór autorytetu. W krajach, których wybory są w mniejszym stopniu relacjonowane przez globalne redakcje, takie jak BBC, Reuters czy Associated Press, podobne działania mogą stać się szczególnie skuteczne.
Więcej transparentności – natychmiast
Czy zatem firmy technologiczne, takie jak OpenAI, Anthropic czy Google DeepMind, ponoszą odpowiedzialność?
W pewnym zakresie – tak. Chatboty coraz częściej odpowiadają na wrażliwe pytania, nawet gdy poziom pewności co do danych nie jest zbyt wysoki. Wcześniej systemy częściej odmawiały odpowiedzi. W przypadku pytań jednoznacznych – np. dotyczących wymogów rejestracji wyborców – firmy powinny automatycznie kierować użytkowników do oficjalnych stron rządowych lub instytucji wyborczych.
Obecne ostrzeżenia są niewystarczające. Krótką adnotację o możliwości błędu, którą umieszcza się na dole odpowiedzi, rzadko ktokolwiek czyta. Rozwiązaniem mogłyby być wyraźne komunikaty ostrzegawcze aktywowane przez słowa kluczowe. Jeśli użytkownik zapyta o „polskie wybory”, system powinien poinformować o ograniczeniach w zakresie weryfikacji faktów. Następnie zaś zachęcić do sprawdzenia informacji w rzetelnych źródłach. Transparentność musi być wyraźna, a nie formalna.
Dezinformacje w ostatniej chwili kluczowym zagrożeniem dla procesów wyborczych
W swoich raportach zwraca pan też uwagę na „dezinformacje w ostatniej chwili”. Mam na myśli np. fałszywe nagrania rzekomo pochodzące od brytyjskiej służby wywiadowczej MI6, ostrzegające przed atakami terrorystycznymi w Niemczech. Czy państwa lub Unia Europejska mają narzędzia, by przeciwdziałać takim doraźnym zagrożeniom dla procesu wyborczego?
Widzieliśmy podobne przypadki w USA, gdzie wiralowe nagranie audio wygenerowane przez AI próbowało zniechęcać obywateli do udziału w głosowaniu. Tego typu działania uderzają w podstawowe prawa demokratyczne. Problemem w wielu państwach – w tym w Wielkiej Brytanii i prawdopodobnie w Polsce – pozostaje brak jasno zdefiniowanego protokołu reagowania na nagłe incydenty informacyjne.
Za wzór może służyć Kanada, która wdrożyła „protokół bezpieczeństwa incydentów wyborczych”. W czasie kampanii służby wywiadowcze, organy ścigania oraz eksperci monitorują ekosystem informacyjny. Jeśli pojawia się zagrożenie mogące podważyć integralność wyborów, uruchamia się formalna procedura ostrzegania społeczeństwa. Obejmuje ona m.in. szybkie komunikaty w mediach społecznościowych wyjaśniające sytuację i wskazujące obywatelom, jak reagować.
Kluczowe jest również zapewnienie badaczom i dziennikarzom dostępu do danych platform w czasie rzeczywistym. Połączenie narzędzi AI wykrywających szkodliwe treści z analizą ekspercką pozwala państwom budować pełniejszy obraz zagrożeń. Pozwoli też szybciej reagować na pojawiające się trendy dezinformacyjne.
Antyzachodnie mocarstwa wykorzystują AI przeciwko Europie
Którzy zewnętrzni aktorzy najsilniej wpływają na wybory w Europie?
Nie ma w tym zaskoczenia, że najbardziej aktywne pozostają sieci powiązane z Rosją. Podmioty te sprawnie ukrywają swoją tożsamość, korzystając z VPN i anonimowych kont w mediach społecznościowych. Eksperymentują z cyfrowymi fałszywkami, zatruwaniem chatbotów oraz zautomatyzowanymi botami promującymi określone narracje. Ich celem jest wspieranie ugrupowań prorosyjskich w UE, osłabianie poparcia dla Ukrainy oraz podważanie wiarygodności instytucji unijnych poprzez narracje o korupcji czy nieskuteczności.
Inne państwa również podejmują działania ingerencyjne. Iran łączono z operacjami informacyjnymi w Wielkiej Brytanii i Francji promującymi narracje proirańskie. Chiny koncentrują się głównie na swojej diasporze, starając się wpływać na jej preferencje wyborcze w zgodzie z interesami Pekinu. Ze względu na bliskość geograficzną i kontekst geopolityczny, to jednak Rosja pozostaje najaktywniejszym graczem w Europie.
Omówiliśmy już zewnętrznych aktorów, ale co z odpowiedzialnością mediów społecznościowych? Czy w świetle najnowszych badań opublikowanych w „Nature” platformy takie jak Meta lub X wpływają na infosferę także w Europie?
Tak. Algorytmy mediów społecznościowych premiują treści wiralowe, ponieważ zwiększają zaangażowanie użytkowników i przychody reklamowe. Najczęściej są to materiały spolaryzowane, kontrowersyjne i sensacyjne. W efekcie promuje się mity, narracje sprzyjające ingerencjom zagranicznym oraz treści generowane przez AI, kosztem rzetelnych i zweryfikowanych informacji.
Co więcej, na wiralowych treściach można po prostu zarabiać. Obserwujemy osoby tworzące dezinformację nie po to, by ingerować w wybory, lecz w celu osiągnięcia zysku. Skutki uboczne dla uczciwości procesu wyborczego i zaufania publicznego schodzą w takich przypadkach na dalszy plan.
Zarabianie na dezinformacji
Kto czerpie zyski z reklam przy takich treściach – zewnętrzni aktorzy czy po prostu oportunistyczni twórcy?
Co istotne, osoby monetyzujące dezinformację często znajdują się poza krajem, w który celują. Podczas zamieszek w brytyjskim Southport fala spekulacji na temat tożsamości podejrzanego – zanim została ona oficjalnie potwierdzona – przyczyniła się do eskalacji przemocy i zakłóceń porządku publicznego. Strona rozpowszechniająca te twierdzenia została założona przez użytkownika mieszkającego w Pakistanie.
W udzielonym później wywiadzie przyznał on, że nie zamierzał wywoływać przemocy. Zauważył jednak wzmożony ruch w sieci i popyt na informacje, których służby nie zdążyły jeszcze przekazać. Opublikował więc fałszywe treści, aby zarobić na reklamach. W praktyce oznacza to, że pojedyncze osoby działające z innych państw mogą – z pobudek czysto finansowych – wpływać na krajową infosferę.
Wyzwania dla Europy
Spójrzmy w przyszłość. W 2027 r. odbędą się istotne wybory: parlamentarne w Polsce i prezydenckie we Francji. Jakie wyzwania wymagają pilnych działań?
Po pierwsze, partie polityczne powinny uzgodnić jasne granice dotyczące wykorzystania AI. Narzędzia te mogą służyć celom pozytywnym, np. tłumaczeniu materiałów kampanijnych, ale muszą zostać objęte podstawowymi standardami etycznymi. Oznacza to obowiązek wyraźnego oznaczania treści wygenerowanych przez AI oraz rezygnację z rozpowszechniania cyfrowych fałszywek wymierzonych w konkurentów. Brak reakcji tworzy spiralę odwetu, w której kolejne ugrupowania sięgają po te same metody.
W 2024 r. UE próbowała wprowadzić memorandum w tej sprawie. Aby jednak zasady miały realne znaczenie, trzeba je wpisać do kodeksów postępowania partii w powiązaniu z konkretnymi sankcjami.
Po drugie, potrzebne są międzynarodowe mechanizmy współpracy w walce z ingerencją zagraniczną. Inicjatywy takie jak unijna „Tarcza Demokracji” czy nowe rozwiązania prawne we Francji to krok w dobrą stronę, jednak państwa nadal działają w dużej mierze w izolacji. Brakuje stałego forum wymiany doświadczeń między komisjami wyborczymi, służbami, organami ścigania i platformami cyfrowymi. Unia Europejska mogłaby odegrać tu rolę koordynatora, łącząc instytucje i wspierając przygotowania przed 2027 r.
Przerwanie błędnego koła
W Polsce i w Wielkiej Brytanii niektórzy politycy chętnie wykorzystują AI do tworzenia kontrowersyjnych materiałów, które zwiększają ich zasięgi. Jak w takiej sytuacji osiągnąć porozumienie między partiami?
Podczas wyborów do Parlamentu Europejskiego w 2024 r. partie podpisały memorandum, jednak jego postanowienia bywały łamane, ponieważ nie przewidywało ono realnych konsekwencji. Aby przerwać ten cykl, konieczna jest aktualizacja prawa wyborczego. W wielu krajach – w tym w Polsce i w Wielkiej Brytanii – obowiązujące przepisy powstały na długo przed erą internetu i AI.
Nie chodzi o kryminalizowanie samego używania sztucznej inteligencji, lecz o wprowadzenie wyraźnych sankcji w sytuacjach, gdy AI staje się narzędziem zniesławienia lub manipulacji. Publikacja nieoznaczonej cyfrowej fałszywki w celu zdyskredytowania rywala powinna wiązać się z odpowiedzialnością prawną. W Holandii zapadły już wyroki wobec polityków za udostępnienie nieoznaczonego obrazu wygenerowanego przez AI, sugerującego aresztowanie przeciwników.
Czy zatem dezinformację generowaną przez AI powinniśmy traktować jak przestępstwo?
Należy rozważyć podejście zbliżone do regulacji dotyczących zniesławienia. Jeśli ktoś przy użyciu tradycyjnych środków rozpowszechnia nieprawdziwe informacje w celu zniszczenia reputacji politycznej, biznesowej czy osobistej, istnieją mechanizmy odpowiedzialności prawnej. Sztucznej inteligencji nie powinniśmy traktować inaczej. Jeżeli jest wykorzystywana do przedstawiania zmyślonych zdarzeń jako faktów, osoba poszkodowana musi mieć realną możliwość dochodzenia swoich praw przed sądem.
Główne wnioski
- Wykorzystanie sztucznej inteligencji w kampaniach wyborczych przyczynia się do pogłębiania erozji zaufania społecznego wobec instytucji państwowych oraz samego procesu wyborczego. Realistyczne materiały syntetyczne są wykorzystywane zarówno przez wrogie państwa, jak i krajowych aktorów politycznych do wzmacniania polaryzacji. Brak obowiązku jednoznacznego oznaczania takich treści utrudnia wyborcom odróżnienie zweryfikowanych informacji od cyfrowej manipulacji.
- Rosnącym zagrożeniem jest również celowe wpływanie na odpowiedzi chatbotów poprzez masowe publikowanie fałszywych artykułów w internecie. Algorytmy dużych platform społecznościowych promują treści kontrowersyjne i silnie angażujące, ponieważ zwiększają one czas spędzany przez użytkowników w serwisie. Mechanizm ten sprzyja powstawaniu treści dezinformacyjnych tworzonych wyłącznie w celu generowania przychodów z reklam.
- Zdaniem Sama Stockwella skuteczna odpowiedź na cyfrowe manipulacje wymaga stworzenia międzynarodowych mechanizmów wczesnego ostrzegania oraz aktualizacji przepisów wyborczych, które w wielu krajach Europy nie uwzględniają realiów epoki cyfrowej. W jego ocenie partie polityczne powinny wprowadzić jasne i egzekwowalne zasady oznaczania materiałów generowanych przez AI. W przypadkach, gdy nowe technologie służą do świadomego rozpowszechniania nieprawdziwych informacji w celu zdyskredytowania oponentów, odpowiedzialność prawną należy stosować na zasadach analogicznych do przepisów o zniesławieniu.
