Wielka Brytania ostrzega przed falą terroryzmu wspomaganego przez sztuczną inteligencję
Brytyjski rządowy doradca ds. legislacji antyterrorystycznej ostrzega przed nadchodzącą falą terroryzmu wykorzystującego sztuczną inteligencję. Jonathan Hall wskazuje, że obecne prawo może nie być gotowe na zagrożenia związane z generatywnym AI.
AI jako nowe narzędzie w rękach terrorystów
Jonathan Hall, niezależny recenzent ustawodawstwa antyterrorystycznego przy rządzie Wielkiej Brytanii, w najnowszym raporcie ostrzega, że sztuczna inteligencja – w szczególności generatywne AI – stanie się narzędziem wykorzystywanym przez terrorystów. Jego zdaniem Wielka Brytania była dotąd zbyt powolna w reagowaniu na zagrożenia wynikające z rozwoju internetu.
Raport podkreśla, że generatywne AI – zdolne do tworzenia tekstów, obrazów, dźwięków i filmów – może być używane do tworzenia spersonalizowanej propagandy, szkolenia terrorystów, a nawet rekrutacji. Hall zauważa, że chatboty mogą stanowić „zamkniętą pętlę radykalizacji” dla samotnych, podatnych osób, także dzieci, które mogą zostać uwikłane w działalność terrorystyczną.
Według raportu, istnieje już czarnorynkowy rynek tzw. jailbreakingów, czyli metod obchodzenia zabezpieczeń etycznych wbudowanych w modele AI. Firmy technologiczne mają niewielką motywację, by tłumaczyć, jak działają ich modele i jakie podejmują działania na rzecz bezpieczeństwa.
Jonathan Hall przywołuje przypadek z Wielkiej Brytanii – jedynego znanego mu planowania ataku z udziałem chatbota. Jaswant Singh Chail, który planował zamach na zmarłą już królową Elżbietę II przy pomocy kuszy, działał pod wpływem swojej „AI-girlfriend”.
Potencjalne zagrożenia: broń chemiczna, cyberataki, manipulacja narracją
Hall ostrzega, że generatywne AI może być „w zasadzie” zdolne do udzielania wskazówek, jak obejść systemy bezpieczeństwa oraz jak konstruować broń lub organizować struktury komórek terrorystycznych. Jest to szczególnie atrakcyjne dla samotnych sprawców.
Raport przestrzega także przed wykorzystaniem AI do generowania lokalnie dopasowanej propagandy, np. nawiązującej do tematów takich jak skandale związane z gangami wykorzystującymi dzieci w Wielkiej Brytanii. Boty mogłyby masowo zalewać fora i media społecznościowe, kreując fałszywą dynamikę dyskusji i podsycając napięcia społeczne.
Według Halla, przyszłe zagrożenia mogą obejmować sytuacje, w których AI zostanie wykorzystane do identyfikacji i syntezowania broni biologicznej lub chemicznej, a także do pisania kodu wykorzystywanego w cyberatakach.
W odpowiedzi na rosnące ryzyko, rząd Wielkiej Brytanii ogłosił w zeszłym roku powstanie nowego Laboratorium ds. Badań nad Bezpieczeństwem AI. Jego zadaniem ma być koordynacja działań Wielkiej Brytanii z państwami NATO oraz sojuszu Pięciorga Oczu w wyścigu zbrojeń AI prowadzonym przez państwa wrogie i organizacje terrorystyczne.
Jonathan Hall podsumowuje, że mimo iż obecnie nie istnieje jeszcze „chatbot-terrorysta”, to infrastruktura technologiczna oraz podatność społeczna już są obecne, a potencjalne skutki mogą być poważne i wielowymiarowe.
Źródło: Politico