Świat Technologia

Etyczne problemy ze sztuczną inteligencją na polu boju

AI może być bezcennym narzędziem marketingu i wspomagać edukację. Jednocześnie pełni też rolę sojusznika hakerów. To jednak dopiero początek problemów. Nie można bowiem wykluczyć, że wbrew normom etycznym zostanie wykorzystywana także podczas regularnej wojny.

Prof. Iulian Chifu (z lewej) i Grzegorz Nawacki podczas debaty na konferencji Impact Bukarest.
Prof. Iulian Chifu (z lewej) i Grzegorz Nawacki podczas debaty na konferencji Impact Bukarest. fot. Impact Bukarest

Z tego artykułu dowiesz się…

  1. Jak sztuczna inteligencja pomaga produktywnie wykorzystać czas spędzony w samolocie podczas wakacyjnych podróży.
  2. Dlaczego AI stała się sprzymierzeńcem hakerów i jak może być przez nich wykorzystywana do szkodliwych działań.
  3. W jaki sposób sztuczna inteligencja steruje dronami, jakie problemy moralne się z tym wiążą i jak można je rozwiązać.

Konferencje Impact, odbywające się od niemal dekady, zdobyły renomę jako „festiwale wymiany idei”. Nic dziwnego – regularnie goszczą ekspertów i wizjonerów, którzy omawiają najważniejsze trendy w geopolityce, gospodarce i technologii. Podobnie było podczas bukareszteńskiego Impactu – pierwszej zagranicznej edycji tego wydarzenia.

Lekcje w przestworzach

Jednym z głównych tematów poruszonych w Bukareszcie była sztuczna inteligencja (AI). Wśród pierwszych prelegentów znalazł się Roozbeh Aliabadi, dyrektor generalny i współzałożyciel ReadyAI – firmy specjalizującej się w edukacyjnej AI, która od 2017 r. stała się liderem w swojej dziedzinie.

ReadyAI postawiło na produktywne wykorzystanie czasu spędzanego w samolotach – szczególnie przez dzieci, które stanowią około 25 proc. z 9,4 mld pasażerów podróżujących samolotami rocznie. Firma współpracuje z instytucjami edukacyjnymi, promując AI wśród najmłodszych i ucząc ich, jak korzystać z tej technologii.

– Dzięki temu każdy lot może być nie tylko podróżą do nowego miejsca, ale i do nowych pomysłów – podkreślił w Bukareszcie Roozbeh Aliabadi.

O możliwościach AI w marketingu mówiła Beatrice Cornacchia z Mastercarda, która wskazała, że sztuczna inteligencja może zwiększyć produktywność nawet o 40 proc.

– Sztuczna inteligencja to potężne narzędzie, ale architektem przyszłości, który wyznacza kierunki rozwoju, pozostaje człowiek – zaznaczyła Beatrice Cornacchia.

AI – sprzymierzeniec hakerów

We współczesnym świecie trudno o bardziej aktualne zagadnienie niż wpływ sztucznej inteligencji na cyberbezpieczeństwo. Intuicyjnie postrzegamy AI jako sojusznika w ochronie przed zagrożeniami, ale okazuje się, że może ona pełnić zupełnie odmienną rolę.

– Pamiętajmy, że AI to technologia, która sama może zostać zhakowana – przestrzegał prof. Iulian Chifu w rozmowie z Grzegorzem Nawackim, założycielem i redaktorem naczelnym XYZ.

Prof. Iulian Chifu, ekspert w dziedzinie analizy konfliktów i bezpieczeństwa, był doradcą premiera Rumunii, a obecnie kieruje Centrum Zapobiegania Konfliktom i Wczesnego Ostrzegania w Bukareszcie (CPC EW).

Podczas konferencji Impact przypomniał, że hakerzy od zawsze są krok przed twórcami systemów zabezpieczeń. Ciągle poszukują luk, które mogłyby umożliwić im atak i wyrządzenie szkód.

– Przewaga hakerów polega na tym, że wystarczy im jeden sukces, podczas gdy twórcy systemu muszą chronić go bezbłędnie przez cały czas – zauważył Iulian Chifu.

Kody, dane i aktualizacje

Sztuczna inteligencja umożliwia szybsze i łatwiejsze wykrywanie luk w działaniu algorytmów. Paradoksalnie, AI – zaprojektowana jako wsparcie twórców systemów w walce z hakerami – uprościła również działania samych cyberprzestępców.

Ekspert wskazuje na trzy główne zagrożenia związane z wykorzystaniem AI przez hakerów. Pierwsze wynika z natury sztucznej inteligencji jako programu, algorytmu.

– Jeśli w algorytmie zmieniony zostanie choćby jeden kod, zmieni się cały rezultat działania AI – wyjaśnił Chifu.

Drugie zagrożenie wiąże się z big data, czyli danymi, na których opiera się AI. Wprowadzenie do systemu niewłaściwych danych może zafałszować wynik, nawet jeśli sam algorytm działa prawidłowo.

– Problem trzeci polega na tym, że system działa właściwie, dane są poprawne, ale nie są aktualne ani regularnie odświeżane. Wówczas efekty działania AI nie będą adekwatne do zmieniającej się rzeczywistości – dodał ekspert.

Według Chifu, zagrożenie to jest obecnie w dużej mierze teoretyczne.

Koszty naturalną ochroną

– Szybkie i proste cyberataki nie wymagają dużych nakładów, ale są łatwe do wykrycia i zatrzymania. Aby cyberatak był naprawdę groźny w skali międzynarodowej, konieczne są znaczące inwestycje – zarówno finansowe, jak i w specjalistów oraz moce informatyczne. Te wysokie koszty same w sobie stanowią barierę ochronną, ponieważ niewielu może sobie pozwolić na takie działania – tłumaczył prezes CPC EW.

Nie oznacza to jednak, że można spać spokojnie.

Według Iuliana Chifu należy rozróżnić cyberbezpieczeństwo od cyberobrony. Cyberbezpieczeństwo dotyczy zapobiegania m.in. kradzieżom danych, natomiast cyberobrona odnosi się do działań obronnych na poziomie państwowym. Tu pojawiają się poważne problemy etyczne związane z wykorzystaniem sztucznej inteligencji.

– AI stosuje się już do sterowania dronami. Wykorzystuje się ją w trzech obszarach: awiacji, rozpoznawaniu celów i ich niszczeniu. To ostatnie budzi szczególne wątpliwości etyczne – w naszym systemie wartości decyzji o zniszczeniu celu nie można powierzyć AI – zaznaczył Chifu.

Dodatkowym wyzwaniem jest to, że nie wszystkie kraje kierują się tymi samymi zasadami moralnymi. Normy etyczne stosowane w Europie nie obowiązują np. w Rosji czy Chinach, co daje tym krajom przewagę.

Poznać nieetycznego przeciwnika

Co z tym zrobić?

– Jestem zwolennikiem wprowadzania regulacji i trzymania się naszych zasad etycznych. Jednocześnie musimy wiedzieć, jak postępować, gdy przeciwnik nie przestrzega tych samych norm. W przeciwnym razie nie będziemy przygotowani na starcie z działaniami, które wykraczają poza nasz system wartości – podkreślił Chifu.

Zdaniem eksperta przyszłość wykorzystania AI zależy od ludzkiej wyobraźni, ponieważ sztuczna inteligencja nie jest autonomiczna – sterują nią ludzie. Jednak Chifu nie wyklucza, że AI może wymknąć się spod naszej kontroli.

– W testach zdarzało się, że sztuczna inteligencja za źródło problemu, który miała rozwiązać, wskazywała człowieka – zauważył na zakończenie rozmowy.

Główne wnioski

  1. Sztuczna inteligencja może aż o 40 proc. zwiększyć produktywność w marketingu. Firma ReadyAI wykorzystuje AI do edukowania dzieci na pokładach samolotów.
  2. Hakerzy dzięki AI mają ułatwione zadanie. Wykorzystują sztuczną inteligencję do wyszukiwania dziur w systemach i wprowadzania do nich niewłaściwych danych. Naprawdę groźny cyberatak wymaga jednak wielkich nakładów.
  3. AI jest wykorzystywana do sterowania dronami. Etyka nie pozwala nam jednak stosować sztucznej inteligencji do niszczenia celów. Nie wszyscy mają jednak takie same zasady. Musimy się więc przygotować również na to, że przyjdzie się nam zmierzyć z przeciwnikiem, który nie ma oporów moralnych.