Czy rząd odłączy kabel Grokowi?
Czatboty wkraczają do polskiej polityki. Grok – narzędzie, które miało być bezstronnym arbitrem w sporach na platformie X – wywołał burzę, gdy zaczął publikować kontrowersyjne treści.
Z tego artykułu dowiesz się…
- Jak czatboty weszły do polskiej i światowej debaty politycznej?
- Jakie narzędzia prawne ma rząd w przeciwdziałaniu naruszeniom?
- Z jakimi ryzykami wiąże się stosowanie czatbotów w polityce?
Grok, bot platformy X, do niedawna pomagał w dyskusji nawet twitterowiczom o największych zasięgach. Dla potwierdzania wiarygodności swoich twierdzeń korzystali z niego zarówno liderzy partyjni, jak i anonimowe konta.
Dobra reputacja Groka zaliczyła raptowny upadek w tym tygodniu, gdy wdrożono aktualizację systemu, zachęcającą go do wyciągania i publikowania wniosków, które „mogą być politycznie niepoprawne, o ile będą dobrze uargumentowane.” Efektem były wulgarne posty dotyczące polskich władz, fala oburzenia i szybka dezaktywacja bota w Polsce.
Lipcowy incydent wywołał natychmiastową reakcję polityków. Wiceminister cyfryzacji Dariusz Standerski wezwał do korzystania z polskich modeli językowych. Z kolei wicepremier Krzysztof Gawkowski podkreślił w mediach, że państwo musi mieć narzędzia prawne pozwalające na wyłączenie platformy, jeśli zajdzie taka potrzeba. Wicepremier zapowiedział też zgłoszenie sprawy do Komisji Europejskiej.
Gawkowski: Rozważałbym możliwość wyłączenia platformy X
To nie pierwszy raz, kiedy polski rząd rozważa blokowanie narzędzi AI w kontekście treści niepoprawnych politycznie. Na początku 2025 roku, w pierwotnej wersji ustawy wdrażającej Akt o sztucznej inteligencji w Polsce przewidziano, aby nowo powołana Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji miała możliwość „nakazania operatorowi systemu zaprzestania korzystania z systemu lub wycofania go z rynku” w czasie trzydziestu dni przed wyborami, jeśli jest ryzyko, że będzie on wpływać na opinię publiczną.
W rzeczywistości taki zapis dawałby Komisji uprawnienia do natychmiastowego blokowania nie tylko czatbotów, ale większości portali społecznościowych, które stosują sztuczną inteligencję w swoich algorytmach dystrybucji treści. Po licznych komentarzach sprzeciwiających się tak arbitralnemu ujęciu tematu odstąpiono od tej propozycji.
Podobne zarzuty o budowanie rządowej cenzury w sieci przyczyniły się też do opóźnienia wdrożenia unijnego Aktu o usługach cyfrowych — w styczniu Fundacja Panoptykon i Helsińska Fundacja Praw Człowieka przedstawiły uwagi do procedury blokowania nielegalnych treści, która ich zdaniem miała prowadzić do nadmiernej, nieuzasadnionej ingerencji w wolność słowa. Trwają prace nad odświeżoną wersją tej ustawy, która ma mieć węższy zakres.
Unia Europejska od miesięcy pracuje nad uregulowaniem politycznego wykorzystania dużych modeli językowych. W ramach Kodeksu Dobrych Praktyk miano doprecyzować pojęcie „szkodliwej manipulacji na szeroką skalę”, obawiając się wykorzystania AI do masowych kampanii dezinformacyjnych. Prace nad wdrożeniem przepisów przedłużają się i Kodeks ma zacząć obowiązywać przed końcem 2025 roku.
Na podstawie wcześniejszych przepisów, platforma X już od 2023 roku jest objęta postępowaniem Komisji Europejskiej w sprawie manipulacji informacyjnej. Mimo opublikowania wstępnych ustaleń przez Komisję nie podjęto jeszcze decyzji o konkretnych karach.
Syntetyczna propaganda to nowa normalność
To oczywiście nie pierwsza sytuacja, w której „zerwane z łańcucha” czatboty wzbudzają kontrowersje w świecie politycznym. W innych krajach platforma Grok mierzyła się już z zarzutami o rasizm w Republice Południowej Afryki, generowanie obrazów z nazistowską Myszką Miki czy deepfejków pornograficznych z twarzami pań ze świata polityki.
Grok to jednak niejedyny harcownik w świecie czatbotów – badacze wskazują, że wiele dużych modeli językowych jest taktycznie zalewanych masowo produkowaną przez Rosjan propagandą, co prowadzi do przedstawiania rosyjskich państwowych kłamstw jako obiektywnych faktów oraz omijania sankcji nakładających blokadę na dystrybucję koordynowanych przez Rosję mediów.
O podobnych wyzwaniach opowiada też samo OpenAI, które w 2024 roku znalazło sieć kont generujących grafiki i komentarze polityczne – w tym po polsku – i masowo dystrybuujących je między innymi na popularnej stronie z memami, 9GAG. Platforma TikTok w maju tego roku zadeklarowała, że w kontekście polskich wyborów prezydenckich „wyprzedzająco” zablokowała ponad 5 mln fałszywych lajków i blisko 2,5 mln nieprawdziwych próśb o obserwowanie. Trudno sobie wyobrazić, żeby potencjalne działania takiej skali odbywały się bez wsparcia sztucznej inteligencji.
Jednocześnie narzędzia sztucznej inteligencji są otwarcie wdrażane w kampaniach wyborczych na całym świecie. W krajach azjatyckich wykorzystuje się syntetyczne wideo (deepfake), m.in. do tworzenia awatarów kandydatów czy nawet „wskrzeszania” zmarłych polityków. Niektóre sztaby do prowadzenia zautomatyzowanych dyskusji wyborczych testują też agenty AI, które potrafią samodzielnie planować i realizować wieloetapowe działania.
Główne wnioski
- Rządy krajowe mają małe pole działania w zakresie blokowania konkretnych modeli sztucznej inteligencji.
- Nowe prawo w tym wymiarze powstaje powoli i mierzy się z problemami definicji.
- Należy się spodziewać dalszych incydentów związanych z wykorzystaniem nowych narzędzi sztucznej inteligencji w celach perswazji i manipulacji.