Wyścig o AGI to wyścig o władzę?
Sztuczna inteligencja stała się jednym z najważniejszych tematów debaty publicznej. Jej rozwój fascynuje, inspiruje, ale też budzi niepokój. W najnowszym odcinku "Singularity Mind" Tomasz Misiak i Edi Pyrek podejmują trudną, ale absolutnie fundamentalną rozmowę: dokąd zmierzamy jako ludzkość, jeśli tworzymy technologię, którą przestajemy rozumieć i nad którą możemy utracić kontrolę?
Z tego odcinka dowiesz się…
- W jaki sposób gwałtowny rozwój AI zmienia percepcję ryzyka i dlaczego nawet niektórzy twórcy tej technologii zaczynają się jej obawiać.
- Dlaczego sztuczna inteligencja może stać się największym zagrożeniem, ale również największą szansą w historii ludzkości.
- Jak rozumieć współczesne systemy autonomiczne i czym różnią się od narzędzi, którymi do tej pory posługiwał się człowiek.
Czy sztuczna inteligencja nas uratuje, czy stanie się największym zagrożeniem w historii ludzkości? W tym odcinku "Singularity Mind" Tomasz Misiak i Edi Pyrek rozmawiają o gwałtownym rozwoju AI, autonomicznych systemach, robotach humanoidalnych i konsekwencjach wchodzenia w świat, w którym maszyny mogą podejmować własne decyzje.
Wideocast
Powiększ video
Wideocast
Powiększ audio
– Pierwszy, kto stworzy prawdziwą sztuczną inteligencję, będzie rządził światem. Więc dzisiaj nie chodzi o to, kto więcej zarobi, tylko o to, kto będzie rządził światem. A ten, kto będzie rządził światem, nie będzie brał pod uwagę tego, że nie może czegoś zrobić, bo regulacje mu zabraniają – mówi Pyrek.
Misiak podkreśla, że przeciętny polityk czy decydent po prostu nie rozumie skali zmian wynikających z rozwoju AI. Regulacje, takie jak europejski AI Act czy amerykańskie propozycje ustawowe, mogą być spóźnione wobec dynamiki technologicznego wyścigu. Jak twierdzi, tempo jest ogromne, a pytanie, czy zdążymy cokolwiek zrobić, pozostaje otwarte.
Naukowcy alarmują
Wbrew powszechnym opiniom, nie tylko pesymiści czy publicyści ostrzegają przed zagrożeniami. Wątpliwości i obawy wyraża światowa czołówka ekspertów AI. Pyrek podkreśla, że wielu naukowców mówi jednym głosem. Twierdzą, że zbliżamy się do momentu, w którym stracimy kontrolę nad tym, co tworzymy.
Z tej perspektywy warto przypomnieć, że ostrzeżenia wygłaszali już wcześniej m.in. Elon Musk, Sam Altman, Stuart Russell czy Geoffrey Hinton.
Ten ostatni – laureat Nagrody Nobla, jeden z ojców współczesnej sztucznej inteligencji – stwierdził nawet, że jeśli nie będziemy właściwie zarządzać rozwojem AI, maszyny staną się wielokrotnie inteligentniejsze od ludzi i będą mogły nas zdominować.
Hinton porównuje różnicę potencjalnych możliwości AI do relacji między dzieckiem a dorosłym. Dorosły łatwo manipuluje dzieckiem, "kupując" jego zachowania symbolicznym cukierkiem. Tak samo superinteligentna AI mogłaby manipulować nami, nawet w sposób dla nas niezauważalny.
Czy da się wychować sztuczną inteligencję?
Czy można uczynić z emocji, takich jak odpowiedzialność, współodczuwanie czy troska, fundament działania sztucznej inteligencji? Dla wielu to brzmi absurdalnie, a jednak coraz więcej ekspertów twierdzi, że to konieczne.
Tomasz Misiak wskazuje na swój poznawczy dysonans. AI działa na podstawie teorii prawdopodobieństwa, więc jak można w tym modelu umieścić coś tak złożonego, jak miłość? A jednak pomysł zaprogramowania troski, odpowiedzialności czy instynktu rodzicielskiego wraca w pracach Hintona, Goertzela czy Hansona.
Edi Pyrek przypomina, że 5–7 lat temu wraz z Davidem Hansonem współtworzył fundację GAIA – Global Artificial Intelligence Alliance. Jej celem było stworzenie "compassion AI", czyli sztucznej inteligencji zdolnej nie tylko rozumieć ludzki ból, ale również reagować na niego troskliwie.
Nie chodziło o etykę w akademickim sensie. Chodziło o współodczuwanie, odpowiedzialność, zdolność reagowania na cierpienie, świadome kształtowanie systemu tak, jak wychowuje się dziecko. Kilka lat temu wielu uważało to za szaleństwo. Dziś ta sama idea pojawia się w rozmowach największych autorytetów AI na świecie.
Emocje są trudne do opisania nawet w psychologii, a co dopiero w języku matematycznym. A jednak, jeśli AI ma mieć szansę współistnieć z ludźmi, potrzebuje czegoś, co przypomina nasze emocjonalne mechanizmy hamujące.
Główne wnioski
- Rozwój AI jest szybszy, niż ktokolwiek przewidywał. Tempo zaskoczyło nawet twórców technologii. Taki skok zwiększa ryzyko, że nie nadążymy z systemami kontroli i regulacji.
- Sztuczna inteligencja może być pierwszą technologią o prawdziwej autonomii. W przeciwieństwie do energii jądrowej nie wymaga infrastruktury państwowej ani gigantycznych inwestycji. Jej samodecyzyjność może prowadzić do nieprzewidzianych konsekwencji, zarówno pozytywnych, jak i katastrofalnych.
- Pomimo ryzyka, AI niesie ogromny potencjał dla ludzkości. Wiele scenariuszy wskazuje, że możemy wejść w najbardziej produktywny i bezpieczny okres w historii. Jednak ignorowanie zagrożeń byłoby błędem, którego skutki mogłyby być nieodwracalne.