Tusk krzyczy na Zełenskiego? Nie – to fake news. Nigdy jeszcze nie mieliśmy tyle dezinformacji generowanej z pomocą AI
Aż 14 proc. fake newsów zidentyfikowanych przez weryfikatorów faktów powstało przy wykorzystaniu generatywnej sztucznej inteligencji – wynika z najnowszego raportu Europejskiego Obserwatorium Mediów Cyfrowych (EDMO). Eksperci ostrzegają, że nigdy wcześniej skala tego zjawiska nie była tak duża.
Z tego artykułu dowiesz się…
- Jakie są główne tematy dezinformacji pojawiającej się w ostatnich tygodniach w mediach społecznościowych.
- Jaka część tych przekazów została wygenerowana za pomocą sztucznej inteligencji.
- Jak nie dać się zwieść dezinformacji.
Od miesięcy najczęściej powielane tematy dezinformacji identyfikowane przez weryfikatorów faktów z 32 europejskich organizacji, w tym także z Polski, pozostają bez zmian. Dominują fałszywe informacje dotyczące Ukrainy, migracji, Unii Europejskiej, polityki klimatycznej, pandemii. W tym kontekście regularnie pojawiają się też zmanipulowane lub całkowicie zmyślone przekazy dotyczące polityków – m.in. Donalda Tuska czy Wołodymyra Zełenskiego.
Coraz więcej dezinformacji generowanej przez AI
Weryfikatorzy faktów zwracają uwagę, że spośród 1486 artykułów poświęconych weryfikacji faktów aż 205 koncentrowało się na wykorzystaniu sztucznej inteligencji w procesie dezinformacji. To 14 proc. wszystkich analizowanych przypadków.
„Sztuczna inteligencja była konsekwentnie wykorzystywana do tworzenia fałszywych treści związanych z wojną na Ukrainie, kreując rzeczywistość potwierdzającą rosyjską propagandę” – czytamy w raporcie EDMO.
To rekordowy poziom. Nigdy wcześniej problem fake newsów tworzonych z pomocą generatywnej sztucznej inteligencji nie był tak powszechny i tak trudny do opanowania.
Sztuczną inteligencją w Tuska i Zełenskiego
Na Słowacji szczególnie popularne było wygenerowane z pomocą sztucznej inteligencji nagranie, na którym Donald Tusk miał krzyczeć na Wołodymyra Zełenskiego.
Polscy odbiorcy prawdopodobnie zwrócą uwagę, że na nagraniu Donald Tusk wygląda nienaturalnie, ale obywatele innych państw mogą nie mieć takiej świadomości.
Mikołaj Rogalewicz, ekspert ds. dezinformacji z serwisu CyberDefence24, zwraca uwagę, że narzędzia AI są coraz lepsze i potrafią tworzyć wyjątkowo wiarygodne treści, a jednocześnie stają się coraz bardziej powszechne i proste w obsłudze.
A z czasem będą jeszcze skuteczniejsze.
AI na pasku Rosji?
– Dziś przygotowanie deepfake’a, w którym widzimy prawdziwą osobę mówiącą coś, czego nigdy nie powiedziała, nie wymaga ani dużych umiejętności, ani specjalistycznego sprzętu. Wystarczy dostęp do odpowiedniego narzędzia AI – mówi Mikołaj Rogalewicz.
Ekspert zwraca uwagę, że najczęściej są to usługi płatne, ale kosztują na tyle niewiele, że sporo osób może sobie na nie pozwolić. To sprawia, że rośnie liczba użytkowników, którzy potencjalnie są w stanie produkować i rozpowszechniać tego typu materiały.
– Dezinformacja tego rodzaju nie powstaje wyłącznie oddolnie. Wykorzystują ją także podmioty powiązane z państwami prowadzącymi działania informacyjne, w tym z Rosją, aby realizować cele rosyjskiej dezinformacji: wzmacniać podziały społeczne, podważać zaufanie do instytucji i osłabiać poparcie dla polityki prozachodniej – zauważa Mikołaj Rogalewicz.
AI na TikToku zachęca do opuszczenia UE
W ostatnich dniach w serwisie TikTok obserwujemy masowe rozpowszechnianie materiałów generowanych przez AI. Nagrania z udziałem młodych kobiet nawołują do wystąpienia Polski z Unii Europejskiej.
Polski rząd uznał sprawę za szczególnie poważną. Dlatego wiceminister cyfryzacji Dariusz Standerski wystąpił do Komisji Europejskiej z wnioskiem o podjęcie działań nadzorczych oraz wszczęcie postępowania wobec platformy TikTok na podstawie przepisów aktu o usługach cyfrowych (DSA).
Dezinformacja osłabia morale i wzbudza niepewność
Mikołaj Rogalewicz zwraca uwagę, że wiele deepfake’ów powstaje również w kontekście wojny w Ukrainie.
– Takie nagrania przedstawiają ukraińskich żołnierzy, którzy rzekomo się poddają, płaczą, składają broń albo krytykują władze Ukrainy. Ich celem jest osłabienie morale, wzbudzanie zwątpienia i wpływanie na opinię publiczną – mówi ekspert z CyberDefence24.
Podobne wykorzystanie AI obserwowano wcześniej w Mołdawii, w kontekście wyborów parlamentarnych i prezydenckich. W ten sposób ośmieszano kandydatów proeuropejskich i próbowano kształtować nastroje społeczne w pożądanym kierunku.
Co ma sztuczna inteligencja do ceny piwa?
Na finiszu kampanii przed wyborami parlamentarnymi w 2023 r., w wyniku których na Słowacji władzę zdobył prorosyjski Robert Fico, w sieci pojawiły się nagrania wygenerowane za pomocą AI. Słychać na nich Michala Šimečkę, lidera proeuropejskiej partii Progresywna Słowacja. Polityk miał na nich przyznawać się do planowania fałszerstw wyborczych oraz zapowiadać podniesienie ceny piwa po przejęciu władzy.
– Wszystkie takie przypadki pokazują ten sam mechanizm: AI obniża próg wejścia w produkcję dezinformacji, przyspiesza jej tworzenie i zwiększa wiarygodność przekazu. W efekcie fałszywe treści są trudniejsze do rozpoznania, łatwiejsze do masowego rozpowszechniania i skuteczniej oddziałują na odbiorców – przekonuje Mikołaj Rogalewicz.
Warto wiedzieć
Jak nie dać się zwieść dezinformacji generowanej przez AI?
Treści tworzone przez sztuczną inteligencję, w tym deepfake’i w postaci nagrań wideo, audio lub zdjęć, są dziś na tyle zaawansowane, że często nie da się ich odróżnić gołym okiem od materiałów autentycznych.
Dlatego warto zadać sobie kilka podstawowych pytań: jakie jest źródło pierwotne, kto udostępnił daną informację i skąd faktycznie pochodzi? Czy osoby lub profile rozpowszechniające przekaz są wiarygodne, czy mamy do czynienia z anonimowym kontem albo źródłem znanym z szerzenia dezinformacji?
Zdarzało się, że nieprawdziwe informacje wygenerowane przez AI były udostępniane także przez polityków. Czasem takie treści podają dalej również osoby relatywnie wiarygodne – zwyczajnie przez pomyłkę. Dlatego kluczowe jest zachowanie ostrożności i sprawdzenie pochodzenia przekazu, zanim zostanie on rozpowszechniony.
Szczególną uwagę należy zwracać na zdjęcia i nagrania wideo grające na emocjach. Dezinformacja często je wykorzystuje, bo pod wpływem silnych emocji ludzie rzadziej weryfikują fakty, a częściej bezrefleksyjnie wierzą i przekazują materiał dalej. Alarmujące powinny być zwłaszcza treści wywołujące złość, strach lub obrzydzenie.
Co istotne – jeśli nie mamy pewności, że dana informacja jest prawdziwa, nie powinniśmy jej udostępniać. Warto przekazywać wyłącznie te treści, co do których wiemy, że są rzetelne i sprawdzone.
Główne wnioski
- W najnowszym raporcie Europejskie Obserwatorium Mediów Cyfrowych (EDMO) wskazano, że 14 proc. fake newsów, które w ostatnich tygodniach obalili europejscy weryfikatorzy faktów, zostało wygenerowanych przy udziale sztucznej inteligencji.
- W ostatnich dniach w serwisie TikTok obserwujemy masowe rozpowszechnianie materiałów generowanych przez AI, nawołujących do wystąpienia Polski z Unii Europejskiej. Polski rząd wystąpił w tej sprawie do Komisji Europejskiej z wnioskiem o podjęcie działań nadzorczych oraz wszczęcie postępowania wobec platformy TikTok na podstawie przepisów aktu o usługach cyfrowych (DSA).
- Eksperci ostrzegają, by szczególnie uważać na treści wywołujące silną złość, strach lub obrzydzenie. To jedna z najprostszych zasad, która pomaga nie dać się zwieść dezinformacji.