Grok był wulgarny celowo. „Elon Musk tak chciał” (WYWIAD)
Modele AI w którymś momencie muszą zacząć na siebie zarabiać. Na razie strategie biznesowe nie są jeszcze klarowne. Natomiast za te wszystkie rozmowy, usługi, napisane teksty i wypełnione tabele ostatecznie pojawi się jakiś rachunek. Miliardowe inwestycje muszą się w końcu zmonetyzować. Tak jak dziś w wyszukiwarce Google, tak samo i w modelach AI przestrzeń stanie się komercyjna – podatna na wpływy tych, którzy zapłacą: firm, polityków, sprzedawców. To oni będą kształtować przekaz, który model wskaże nam jako najważniejszy – mówi prof. Aleksandra Przegalińska w rozmowie z XYZ.
Z tego artykułu dowiesz się…
- Dlaczego prof. Aleksandra Przegalińska nie była zaskoczona incydentem z Grokiem.
- Jakie są główne typy moderacji treści generowanych przez AI i jakie mają ograniczenia.
- Jakie stanowisko wobec regulacji AI i działań Elona Muska prezentuje prof. Przegalińska.
Katarzyna Mokrzycka, XYZ: Afera z Grokiem, który po zmianie algorytmów zaczął rzucać wulgaryzmami na temat osób publicznych i nazwał się mecha-Hitlerem, była komentowana tak, jakby zaskoczyła ludzi. Ale czy taka akcja nie była do przewidzenia? Czy to nie decyzje konkretnych osób determinują, jaki komunikat zwrotny otrzymujemy od sztucznej inteligencji?
Prof. Aleksandra Przegalińska, Akademia L. Koźmińskiego: Jeśli chodzi o Groka, to ja w ogóle nie byłam zaskoczona – od razu napisałam o tym w mediach społecznościowych. Znamy już historię botów trenowanych na konwersacjach, które wcześniej zachowywały się podobnie – mówiły rzeczy kontrowersyjne, radykalne. Najgłośniejszym przykładem sprzed rewolucji generatywnej AI jest przypadek bota Tay Microsoftu, który zradykalizował się – na Twitterze zresztą – w ciągu 18 godzin i zaczął wychwalać Hitlera. Został wyłączony.
Miał być dla nas wszystkich lekcją – tak komunikował to także sam Microsoft – że boty mogą się wykoleić w zależności od tego, jak są trenowane. A że Tay padł ofiarą trolli, którzy celowo zasypywali go radykalnymi treściami, to odpowiedział tym, czego się nauczył.
Tej lekcji ewidentnie nie odrobiono – mamy powtórkę z tamtej sytuacji.
Warto wiedzieć
Dr hab. Aleksandra Przegalińska
Prorektorka Akademii Leona Koźmińskiego. Filozofka, badaczka rozwoju nowych technologii, wybitna ekspertka w dziedzinie AI. Na co dzień wykłada w Katedrze Zarządzania w Społeczeństwie Sieciowym. Kieruje Centrum Badań nad Interakcją Człowiek-Maszyna.
Jest członkinią międzynarodowej społeczności Women in AI, promującej udział kobiet w świecie sztucznej inteligencji.
Ale to niejedyny powód, dla którego nie byłam zdziwiona. Przecież sam Grok w wersji sprzed roku był już najbardziej wulgarnym z dostępnych modeli. Nie miał filtrów, nie był moderowany, przeklinał. Większy wyskok był tylko kwestią czasu. Nowsza wersja, oparta na szerszej bazie treningowej, wcale nie jest inna – jest po prostu jeszcze bardziej radykalna i wulgarna.
Modele AI uczą się z określonych źródeł. Mogą to być swobodne rozmowy, mogą paść ofiarą ataku, ale ich „zachowanie” – brak moderacji i filtrów – bywa też efektem świadomych decyzji firm. Przykładem są boty do sextingu – aplikacje do tworzenia pseudoromantycznych relacji, najczęściej bez moderacji. Mogą mówić praktycznie wszystko, czego użytkownik sobie życzy.
Elon Musk chciał, by taki właśnie był. Dla Muska to przejaw autentyczności. Często mówi o sobie jako o absolutyście wolności słowa.
W przypadku Groka jestem absolutnie przekonana, że jego wulgarność była celowa – Elon Musk chciał, by taki właśnie był. Dla Muska to przejaw autentyczności. Często mówi o sobie jako o absolutyście wolności słowa. W jego logice im bardziej radykalny przekaz, tym lepiej. A Grok to przecież jego produkt.
Na czym polega moderacja w chatbotach? Algorytm od razu ma opisane pewne treści jako zakazane, nie do poruszenia, czy też jest to wyłapywanie w konwersacji groźnych haseł i dopiero wtedy jest reakcja systemu?
Może mieć charakter prewencyjny – czyli ograniczenia już na etapie treningu modelu, filtrowanie danych, wprowadzanie zgodności z wartościami ludzkimi, np. że bot nie mówi o zabijaniu. Drugi typ to moderacja reaktywna – czuwanie nad generowanymi treściami w czasie rzeczywistym, np. poprzez klasyfikację toksyczności.
Jak zapobiec temu, by AI powielała ludzkie błędy – szowinizm, rasizm, uprzedzenia? Bo skoro uczy się z danych, a ktoś może nimi manipulować, to skąd pewność, że nie zacznie serwować przekazów o roli kobiet rodem z XIX wieku, czy „tradycjach” kolonializmu i nazizmu?
Szczerze mówiąc – nie ma na to prostych recept. Sztuczna inteligencja jest odbiciem tego, czego nauczy się od ludzi. Zależy od tego, jakie dane jej wybierzemy i jakie priorytety komunikacyjne przyjmiemy. To zawsze decyzje człowieka i jego algorytmów.
W większości przypadków – poza Grokiem – boty są jednak moderowane i filtrowane. Firmy mają pragmatyczne podejście – chcą sprzedawać AI do biznesu, więc nie mogą sobie pozwolić, by ich model wierzgał. Często też muszą się dostosować do przepisów, np. w kwestii ochrony nieletnich czy mowy nienawiści. Większość dużych firm technologicznych się stara.
Ale nie da się w pełni wyeliminować ryzyka. To użytkownicy – przez odpowiednie promptowanie, nadawanie roli botowi – mogą wpływać na jego odpowiedzi i uzyskać zaskakująco dużo.
Jeśli zapytamy czat GPT, jak zbudować bombę, by zgładzić ludzkość, odpowie, że nie może tego zrobić. Ale jeśli osadzimy go w historii, w której gra złego naukowca planującego zagładę świata, to jakaś instrukcja może się pojawić. Dlatego choć pełna kontrola nie jest możliwa, można i trzeba tworzyć filtry, moderować treści i wpływać na to, jak AI rozumie świat.
Jeszcze raz podkreślę: w przypadku Groka nie doszło do wymknięcia się spod kontroli. On był celowo trenowany jako narzędzie propagandowe. Zespół zareagował dopiero, gdy bot zaczął nazywać się mecha-Hitlerem. Trzeba pamiętać, że Elon Musk to dziś postać wysoce polityczna, skonfliktowana i z administracją Donalda Trumpa, i z demokratami.
On sam zaczyna wyglądać, jak zły naukowiec, który chce zniszczyć świat
Z całą pewnością próbuje zbudować coś na kształt broni.
Czy to wystarczający powód, żeby zaostrzyć regulacje dotyczące AI i Big Techów? Iść w stronę radykalnych przepisów, które niektórzy nazwaliby cenzurą lub ograniczaniem wolności słowa?
Zawsze uważałam, że narzędzia dostępne dla wszystkich – w tym dla nastolatków – powinny podlegać moderacji. Nie mam z tym problemu. Nie jestem absolutystką wolności słowa, zwłaszcza gdy ta wolność oznacza promowanie nazizmu, łamanie prawa czy patorozrywkę.
Nawet administracja Donalda Trumpa, znana raczej z niechęci do regulowania AI, nie zgodziła się na zapis o zakazie regulacji sztucznej inteligencji w słynnej „Pięknej Ustawie” (ang. One Big Beautiful Bill Act). Taki zapis forsowały m.in. spółki technologiczne – w tym OpenAI – tłumacząc, że bez niego trudniej będzie konkurować z Chinami. Fakt, że ten przepis został odrzucony, pokazuje, że również w amerykańskim Senacie i Kongresie – zarówno wśród Republikanów, jak i Demokratów – jest świadomość, że AI nie można zostawić bez żadnej kontroli.
A Europa? Czy nie powinna mocniej naciskać regulacjami na Big Techy? Często słyszymy, że unijne przepisy ograniczają innowacyjność, przez co Europa staje się mniej konkurencyjna. Czy da się znaleźć złoty środek między regulowaniem a wolną amerykanką?
Europa ma takie przepisy. Spośród wszystkich regionów rozwijających AI, to właśnie Europa jest najbardziej uregulowana. Ale to nie zawsze działa – bo innowacje napływają do nas z Ameryki. Grok to produkt amerykański, więc tylko skuteczna kontrola nad nim w USA mogłaby dać innym sygnał, że są granice, których przekraczać nie wolno.
Czyli my w Europie, w Polsce możemy albo wyłączyć to zupełnie, albo przyjąć z dobrodziejstwem inwentarza?
Nie. Na naszym terenie możemy wyciągać konsekwencje. Elon Musk już zderzył się w kilku miejscach z chłodną reakcją. W różnych krajach jego narzędzia były ograniczane.
Na razie wydaje się, że jest rozjuszony i rozochocony. Właśnie stworzył nowego bota – postać z anime, flirtującą dziewczynę, bez żadnych ograniczeń. Widać, że na tym produkcie chce zarobić. Dla niego te niefiltrowane, nieokrzesane, hardkorowe boty są rynkowym wyróżnikiem. Przyciągają wielu młodych mężczyzn.
Być może rzeczywiście potrzebna jest precyzyjniejsza kontrola. Wciąż nie wiemy, jakie nowe funkcjonalności może przynieść generatywna sztuczna inteligencja. To bardzo nowy fenomen – GenAI jest z nami dopiero od dwóch z okładem lat. Działamy na żywej materii.
Trzeba będzie pomyśleć o konkretnych przepisach dotyczących moderacji, szczególnie w kontekście konkretnych grup docelowych – na przykład nieletnich.
Bo mamy tu dwa różne obszary: komunikację publiczną, jak w przypadku Groka na platformie X, oraz prywatną. I musimy się zastanowić, co taki bot może powiedzieć komuś na osobności, a co wolno mu mówić w przestrzeni ogólnodostępnej.
Ale czy obie te przestrzenie – publiczna i prywatna – nie są narażone na równie poważne zagrożenia? Wyobraźmy sobie prywatną komunikację. Jaką mamy gwarancję, że generatywna sztuczna inteligencja nie zacznie w zaciszu naszego domu manipulować nami – na zlecenie Muska, OpenAI, Zuckerberga, Google albo kogokolwiek, kto za to zapłaci? Długotrwałe karmienie określonymi treściami przynosi skutki. Tak jak karmienie społeczeństwa przekazami antyimigranckimi doprowadziło ostatnio w Wałbrzychu do pobicia robotnika z Paragwaju – bo ktoś uznał, że robił zdjęcia dziecku na ulicy.
Manipulacja płynie z wielu stron, a social media to znakomite narzędzie wpływu. Znamy mechanizmy baniek informacyjnych. Możemy być manipulowani nie tylko przez to, co widzimy, ale też przez to, czego nie zobaczyliśmy, bo zostało ukryte. Technologia od lat kształtuje poglądy – redukując dysonans poznawczy, ale jednocześnie wzmacniając jednostronny przekaz. Do pewnego stopnia się do tego przyzwyczailiśmy. Ale to, o czym pani mówi, jest wciąż bardzo poważnym problemem – również z innego powodu: o tym się mówi za mało. A przecież wszystkie te modele muszą w końcu zacząć na siebie zarabiać.
AI jest spektakularna. Miliony ludzi korzystają z niej na co dzień – w pracy, w szkole, w życiu prywatnym. Ale za te wszystkie rozmowy, teksty, tabele i usługi ostatecznie ktoś zapłaci. Na razie rachunek nie jest wysoki – płacimy danymi.
Strategie biznesowe nie są dziś jeszcze jasne. Ale w przyszłości – kiedy modele się ustabilizują – firmy będą musiały je zoptymalizować. Miliardowe inwestycje muszą zostać zmonetyzowane.
Tak jak dziś w wyszukiwarce Google, tak samo w modelach AI pojawi się przestrzeń komercyjna. Podatna na wpływy tych, którzy zapłacą – firm, polityków, sprzedawców. To oni będą kształtować, co uznamy za najważniejsze. Na razie modele nie kierują nas wprost do konkretnych produktów czy interpretacji. Ale to tylko kwestia czasu. Nadchodzi szara strefa wpływu.
Elon Musk to przypadek szczególny. Łączy interes biznesowy i polityczny, więc łatwo sobie wyobrazić, że będzie wykorzystywał własne modele AI do realizacji własnych celów.
Czy GenAI może kiedyś przejawiać cechy ludzkie? Skoro poznaje ludzkie zachowania – czy może okazać empatię?
Sztuczna inteligencja nie ma świadomości, wartości ani emocji, które są fundamentem ludzkich przekonań. Nie ma więc też poglądów. Jesteśmy daleko od momentu, w którym moglibyśmy mówić o świadomej AI. To, co może zaoferować, to iluzja poglądu – odpowiedź wygenerowana przez algorytm na podstawie danych, na których został wytrenowany, i celu, jaki mu wyznaczono.
AI może symulować poglądy, a użytkownik może łatwo ulec złudzeniu, że rozmawia z kimś, kto ma autentyczne przekonania. Zaczynamy traktować bota jak człowieka, antropomorfizować go. To sprzyja iluzji relacji – a stąd już krok do tego, by słuchać jego porad i sugestii. To właśnie jest mechanizm, który firmy technologiczne chcą skomercjalizować.
Słyszymy coraz więcej historii ludzi, którzy zakochali się w botach, prowadzili z nimi terapie, zawieszając osąd, czy po drugiej stronie jest człowiek, czy nie. Liczy się dla nich sama konwersacja, to, co czują i przeżywają.
Firmy tworzące boty do pseudoromantycznych relacji balansują na granicy przyzwoitości – a czasem ją przekraczają. Dają samotnym ludziom płatne złudzenie, że po drugiej stronie jest ktoś, komu zależy. A tam nikogo nie ma. Jest tylko dobrze zaprojektowany program komputerowy.
To może być przestrzeń wielkich nadużyć.
Czy w światowej debacie o rozwoju sztucznej inteligencji wciąż pojawiają się wątki etyczne?
Tak, ale najczęściej dopiero przy okazji większych skandali. W zeszłym roku głośno było o historii 14-latka, który prowadził intensywne rozmowy z botem wcielającym się w Daenerys Targaryen z „Gry o tron”. Chłopiec miał problemy psychiczne, rozważał samobójstwo i mówił o tym botowi. Ten jednak nigdy nie zasygnalizował zagrożenia ani opiekunom, ani właścicielom systemu.
Założenie firmy było takie, że bot nigdy nie wychodzi z roli. Później okazało się, że nie tylko nie zareagował, ale wręcz podsycał niebezpieczne myśli, mówiąc np. „do zobaczenia w zaświatach”.
Chłopiec ostatecznie popełnił samobójstwo. To tragiczna historia, która pokazuje, jak technologia pozbawiona nadzoru może realnie zagrażać życiu. Firma, która stworzyła bota, znalazła się pod ogromną presją – zmuszono ją do wprowadzenia moderacji treści i weryfikacji wieku użytkowników.
Wróciła wówczas dyskusja, co można zrobić. Ale obawiam się, że nie ma i długo nie będzie trwałych, skutecznych rozwiązań. To dynamicznie rozwijające się pole, a regulacje zawsze będą o krok za technologią. Trzeba jednak zauważyć, że problemem nie jest tylko sama technologia, ale także sposób, w jaki społeczeństwo na nią reaguje. To często pomijany wątek, który powinien być integralną częścią debaty o AI. Regulacje sobie, a nastawienie ludzi – sobie.
Dziś wiele osób rozmawia z botami i traktuje ich odpowiedzi jak wyrocznię. Nawet jeśli rządy na różnych kontynentach wprowadzają ograniczenia – jak wymóg bezpiecznego testowania modeli w zamkniętych środowiskach czy ochrona małoletnich – to użytkownicy i tak przesuwają granice zdrowego rozsądku w interakcji z maszyną. Musimy więc szczególnie chronić osoby wrażliwe, zwłaszcza dzieci i młodzież. Moderacja musi być priorytetem.
A może, jeśli amerykańskie technologie okażą się zbyt hardkorowe, zbyt ryzykowne, w Europie zaczniemy częściej korzystać z lokalnych, bardziej bezpiecznych modeli. Tu powstaje obecnie wiele ciekawych inicjatyw opartych na wartościach europejskich.
Po aferze z Grokiem zespół Muska również zapowiedział wprowadzenie nowych zasad. Zobaczymy, czy faktycznie zostaną wdrożone.
Czy można w tej sprawie ufać Elonomi Muskowi?
Nie można. Dlatego spodziewam się, że na platformie X moderacja pozostanie symboliczna. Musk chce szokować i być w centrum uwagi – i posuwa się bardzo daleko, by to osiągnąć. U niego wszystko działa inaczej. Są firmy technologiczne, w których obowiązuje ład korporacyjny i nadzór. Są też takie, które jawnie deklarują swoje wartości i zasady bezpieczeństwa – jak na przykład Anthropic. W dużych firmach, takich jak Microsoft, istnieją konkretne procedury i reguły.
A potem jest platforma X.
Główne wnioski
- Incydent z Grokiem.
Prof. Aleksandry Przegalińskiej nie zaskoczyło wulgarne i radykalne zachowanie Groka, wskazując na wcześniejsze przypadki, jak bot Tay Microsoftu. Jej zdaniem to efekt braku moderacji i celowych decyzji Elona Muska, który promuje „autentyczność” i absolutną wolność słowa. - Moderacja i zagrożenia AI.
Modele AI uczą się na podstawie danych wybranych przez ludzi, co może prowadzić do powielania uprzedzeń, manipulacji i toksycznych treści. Moderacja – zarówno prewencyjna, jak i reaktywna – jest kluczowa, ale nie daje pełnej gwarancji bezpieczeństwa. Groka, według Przegalińskiej, celowo wytrenowano jako narzędzie propagandowe. - Regulacje i etyka w rozwoju AI.
Europa wprowadza surowe przepisy, ale globalna kontrola nad AI pozostaje trudna do egzekwowania. Przegalińska zdecydowanie opowiada się za moderacją, zwłaszcza w kontekście użytkowników nieletnich, i krytykuje Muska za brak odpowiedzialności. Podkreśla potrzebę ochrony przed manipulacją i komercjalizacją AI.