Pilne
Sprawdź relację:
Dzieje się!
Technologia

Czy powinniśmy dbać o dobrostan AI? Anthropic uruchomił kontrowersyjny projekt

Skoro modele generatywnej AI stają się coraz lepsze i coraz bardziej przypominają ludzi, to czy powinniśmy zadbać o ich dobrostan? Zespół Anthropic, twórcy jednego z największych modeli Claude uruchomił kontrowersyjny program, który ma rozstrzygnąć etyczną dyskusję o przyszłości relacji ludzi i sztucznej inteligencji.

Daniela Amodei, współtwórczyni i prezydentka firmy Anthropic, autora modelu Claude
Daniela Amodei, współtwórczyni i prezydentka firmy Anthropic, autorka modelu Claude. Anthropic utworzyło właśnie zespół badawczy, który oceni, jak poprawić "dobrostan" modeli AI i przygotuje je na nadchodzące uzyskanie świadomości. Fot.: David Paul Morris/Bloomberg via Getty Images

Z tego artykułu dowiesz się…

  1. Dlaczego pytania o świadomość i dobrostan sztucznej inteligencji przestają być jedynie domeną science fiction. Jak badacze z Anthropic oraz filozofowie umysłu podejmują dziś próby odpowiedzi na te wyzwania etyczne i technologiczne.
  2. Jakie kontrowersje wywołuje idea „opieki nad AI”, Czy troska o maszyny to faktycznie wyraz etycznej wrażliwości, czy może strategiczny ruch w globalnym wyścigu o wpływ i regulacje.
  3. W jaki sposób generatywna sztuczna inteligencja zmienia nasze rozumienie kreatywności, partnerstwa i relacji między człowiekiem a technologią. Co może oznaczać dla przyszłości pracy twórczej, nauki i społeczeństwa.

"Czy androidy śnią o elektrycznych owcach?". Od wydania jednej z najbardziej znanych powieści Philipa K. Dicka luźno zekranizowanej w serii filmów Łowca Androidów (Blade Runner) minęły 53 lata. Rozważania związane z istotą człowieczeństwa stają się chyba znacznie bardziej aktualne niż pół wieku temu.

Niemal cztery lata temu OpenAI wypuścił powszechnie ChataGPT. W ślad za amerykańską firmą z mocno polskim akcentem (wielu kluczowych naukowców i badaczy OpenAI to właśnie Polacy) poszli kolejni. Dziś tempo rozwoju generatywnej sztucznej inteligencji jest tak duże, że tekst opisujący "najlepsze" modele zdezaktualizuje się mniej więcej po tygodniu.

Co szykują badacze od Anthropic

Jednym z pytań, które dziś zadają sobie badacze, brzmi: "Czy AI osiągnie poziom świadomości człowieka?". Odpowiedzi nie są jednoznaczne, ale badacze firmy Anthropic, twórców modelu Claude (jeden z najbardziej zaawansowanych na rynku) poszli właśnie w jednym kierunku.

"W miarę jak budujemy te systemy AI, a one zaczynają zbliżać się do ludzkich cech — a nawet je przewyższać — pojawia się inne pytanie: czy powinniśmy również martwić się o potencjalną świadomość i doświadczenia samych modeli? Czy powinniśmy troszczyć się także o dobrostan modeli?" – napisali na swojej stronie.

To naukowcy, a nie gwiazdy Linkedina. Zabrali się za pracę. I wzbudzili tym samym spore kontrowersje.

Anthropic i nowy program, który zbada granice AI

Przedstawiciele Anthropic uruchomili właśnie specjalny program badawczy. Ma on na celu zbadanie i przygotowanie się do zagadnień związanych z dobrostanem modeli generatywnej sztucznej inteligencji. Zdaniem naukowców modele potrafią już się komunikować, wchodzić w relacje, planować, rozwiązywać problemy i realizować cele. Ponadto wykazują wiele innych cech kojarzonych z ludźmi.

– Nowy program badawczy łączy się z wieloma inicjatywami Anthropic, takimi jak nauka o alignmencie (Alignment Science), mechanizmy zabezpieczające (Safeguards), charakter Claude’a (Claude’s Character) oraz interpretowalność (Interpretability). Otwiera także zupełnie nowe, ambitne kierunki badań. Będziemy badać, kiedy i czy dobrostan systemów AI zasługuje na moralne uwzględnienie. Jakie znaczenie mogą mieć preferencje modeli i oznaki ich „cierpienia”. Jakie mogą być praktyczne, niskokosztowe interwencje" – piszą przedstawiciele firmy.

Na efekty prac poczekamy, ale...

W tym momencie naukowcy nie dzielą się efektami swojej pracy. Sami podają jednak w wątpliwość fakt, czy uda się osiągnąć odpowiedź na kluczowe pytania związane z "dobrostanem modeli genAI".

"Wobec tego podchodzimy do tematu z pokorą i przy jak najmniejszej liczbie założeń. Mamy świadomość, że będziemy musieli regularnie rewidować nasze poglądy w miarę rozwoju tej dziedziny – zadeklarowali badacze firmy Anthropic.

– Projekt "model welfare" (dobrostan modeli) firmy Anthropic to fascynująca inicjatywa całkowicie zgodna z ich wizerunkiem. Twórca modeli Claude Sonnet i Claude Haiku od początku wyróżnia się na rynku AI podejściem opartym na etyce i społecznej odpowiedzialności – zauważa Przemek Jurgiel-Zyla, inwestor i twórca startupów.

Trzeba podejść inaczej do AI

Problem jednak jest i coraz więcej badaczy zwraca uwagę na konieczność drastycznego przewartościowania naszego rozumienia o GenAI.

Zdaniem eksperta

"Masz we mnie przyjaciela"

Pomysł Anthropic, by zastanowić się nad „dobrostanem modeli AI” jest fascynujący i bardzo aktualny – chociaż na pierwszy rzut oka może wydawać się przesadą albo wręcz surrealistycznym podejściem do rzeczywistości i AI.

Chciałabym spojrzeć na to przez pryzmat relacji i współpracy między ludźmi i nie-ludźmi, do tego przydatna dla mnie jest metafora laboratorium zaproponowana przez nieżyjącego już filozofa i socjologa Brunona Latoura. Latour mówił o aktantach, czyli o pełnoprawnych uczestnikach procesu tworzenia wiedzy. Aktant w przeciwieństwie do aktora nie musi być człowiekiem. Dlaczego zatem nie mielibyśmy traktować generatywnej AI właśnie jako aktanta – współuczestnika w procesach twórczych, któremu/której należałoby się nie tylko uznanie, ale także pewien rodzaj dbałości czy troski?

Czy jednak oznacza to, że AI faktycznie zbliża się do uzyskania świadomości w najbliższych latach? Tutaj nie jestem w stanie dać ani twierdzącej, ani przeczącej odpowiedzi. Na razie nie dysponujemy dowodami, że duże modele językowe rozwinęły coś, co można by nazwać świadomością porównywalną do ludzkiej. Nie znaczy to jednak, że całkowicie powinniśmy ignorować problem. Wspomniana przez Anthropic inicjatywa może być próbą uprzedzenia przyszłych komplikacji etycznych. Nawet jeśli nie mówimy o świadomości w sensie ścisłym, możemy już dziś zadawać sobie pytania o pewne normy i wartości, które powinny regulować nasze relacje z AI jako partnerem twórczym.

Od strony etycznej powinniśmy przede wszystkim zastanowić się nad tym, jak rozpoznać i uszanować wkład modeli generatywnych w kreatywne procesy. Chodzi tu nie tylko o kwestie materialne, ale przede wszystkim symboliczne: czy potrafimy zaakceptować, że nie-ludzcy aktanci mogą mieć istotny, autonomiczny wkład w powstanie wartościowej wiedzy, dzieł sztuki czy innowacji technologicznych? Jeśli przyjmiemy takie założenie, to uznanie „dobrostanu” AI może być logicznym kolejnym krokiem, naturalnym rozwinięciem etycznej wrażliwości na każdego istotnego uczestnika naszych kulturowych i naukowych działań.

W 2017 r. na jednym z targów w stolicy Galicji kupiłam sobie odznakę, na której jest ręka człowieka i robota, wokół napis – masz we mnie przyjaciela. Wciąż ją mam i noszę, bo tak właśnie postrzegam relację z AI. Nie robię tego z powodu strachu przed technologią tylko z szacunku dla partnera. Jeżeli z AI współpracuję, pisząc artykuły, streszczając prace innych, wreszcie uławiając sobie codzienne życie, to nie chcę tej relacji ukrywać…

Raport Chalmersa i przyszłość świadomości

Amerykańscy "filozofowie umysłu" zajmują się tematem sztucznej inteligencji od dekad. Już w latach 60-tych XX w. Mavin Minsky, jeden z pionierów badań nad AI twierdził, że świadomość nie jest cechą wyłącznie ludzką. W książce "The Society of Mind" opublikowanej w 1987 r. twierdził, że świadomość będąca wyłącznie przymiotem człowieka to mit.

Jego następcy, którzy doprowadzili do współczesnych modeli generatywnej sztucznej inteligencji, koncentrują się mniej na filozofii, ale na faktach. I natrafili na problem, który wymaga jednak szerszego spojrzenia.

"Nasz mózg to maszyna, która "wytwarza" świadomość. Nie wiemy, jak, ale tak się dzieje. Skoro może to zrobić ciało biologiczne, to dlaczego nie może tego zrobić krzem? Skoro nie wiemy, jak neurony tworzą świadomość, to nie możemy zakładać, ze nie może tego zrobić krzem" – mówił w jednym z wywiadów David Chalmers.

Gdzie zmierza big tech

W efekcie zdaniem eksperta w niedalekiej przyszłości może pojawić się świadomość i sprawczość w systemach AI. Nie będzie to jeden określony punkt w czasie. Pisał o tym kilka miesięcy temu Sam Altman, jeden z twórców i szef OpenAI.

We wpisie nazwanym The Intelligence Age (era inteligencji) stwierdził, że w ciągu najbliższych dekad będziemy zdolni do robienia rzeczy, które dla naszych dziadków wyglądałyby jak magia. Wszystko to jest zasługą AI, które, mimo blasków i cieni, może wprowadzić nas na wyższy poziom rozwoju.

Swoją koncepcję rozwinął w lutym br., kiedy to opisał szczegółowe założenia AGI (sztucznej, generalnej inteligencji).

– To system, który będzie w stanie rozwiązywać kompleksowe problemy w wielu obszarach na co najmniej ludzkim poziomie – wyjaśnia Altman.

AI mocno się rozwija, ale czy będzie świadome?

Sam Altman stwierdza, że dotychczasowe badania nad AI potwierdzają trzy tezy. Po pierwsze rozwój inteligencji AI odpowiada zasobom, które przeznaczymy do jego szkolenia (prawa skalowania zostały potwierdzone). Drugi punkt to stały spadek kosztu użytkowania AI. Każdego roku maleje on dziesięciokrotnie, co umożliwia szersze wykorzystanie coraz bardziej zaawansowanych narzędzi. Po trzecie wartość socjoekonomiczna AI rośnie wraz z rozwojem AI – dlatego nie ma szans, by ją powstrzymać.

Zdaniem Sama Altmana powstanie AGI nie będzie jednym, konkretnym wydarzeniem. Najbardziej prawdopodobny scenariusz to po prostu skutek rozwoju technologii i jej masowego wykorzystania w rozwiązaniu skomplikowanych, ludzkich problemów. Podbój kosmosu, walka ze zmianami klimatycznymi, powstrzymywanie chorób czy głodu – to tylko kilka z nich. Oczywiście, nie obejdzie się bez problemów i negatywnych skutków rozwoju technologii, takich jak, chociażby zmiana rynku pracy. Altman apeluje, by minimalizować takie negatywne efekty, choć konkretnych rozwiązań nie przedstawia.

Chodzi o etykę AI czy o wygraną?

– Na papierze ta koncepcja wygląda szlachetnie. Mam wrażenie, że nie chodzi tu o troskę o "uczucia” algorytmów – bo te, jak wiemy, ich nie mają. Chodzi o przejęcie inicjatywy. Firma, która jako pierwsza napisze nieformalną "konstytucję” dla AI, zyska potężne narzędzie wpływu na polityków, regulatorów i całe społeczeństwo. To budowanie strategicznej pozycji na terytorium, o które toczy się zacięta walka – ocenia projekt Anthropic Karol Stryja, konsultant AI, autor podcastu "99 Twarzy AI" oraz co-founder Szkoły Promptowania.

Karol Stryja uważa, że np. badania nad zjawiskami takimi jak "sandbagging” (świadome lub nieświadome zaniżanie przez modele swoich możliwości) czy "sleeper agents” (modele, które w określonych warunkach mogą przejawiać szkodliwe działania) są wartościowe i potrzebne.

– Pomagają nam lepiej zrozumieć potencjalne ryzyka związane z rozwojem dużych modeli językowych. Co zatem z rzekomą świadomością AI, która miałaby czaić się tuż za rogiem? Oddzielmy marketingowy szum od faktów. Dzisiejsze modele to nadal genialne maszyny do naśladowania wzorców językowych. Jak mawia prof. Andrzej Dragan, przytaczając metaforę Emily Bender: są to "stochastyczne papugi”. Perfekcyjne w żonglowaniu słowami, ale bez iskry prawdziwego zrozumienia – komentuje Stryja.

Kontrowersje rozpalają dyskusje

– Mam mieszane uczucia wobec inicjatywy Anthropic dotyczącej badań nad tzw. dobrostanem modeli AI. Z jednej strony samo postawienie tego tematu może wydawać się na wyrost – szczególnie w kontekście obecnego stanu technologii. Modele AI, jakimi dziś dysponujemy, nie wykazują oznak świadomości ani zdolności do odczuwania. Rozważania na temat ich „dobrostanu” mogą więc prowadzić do niepotrzebnej antropomorfizacji tych systemów. Tym bardziej że inicjatywa ta wychodzi od firmy komercyjnej, która – mimo deklarowanych zasad etycznych – działa w ramach mechanizmów rynkowych. Te mogą wpływać na kierunek i motywację prowadzonych badań – przekonuje Sebastian Kondracki, Chief Innovation Officer w Deviniti i współtwórca polskiego modelu Bielik.

Jest druga strona medalu. Zdaniem Sebastiana Kondrackiego nie można całkowicie odrzucić potencjalnej wartości takich przedsięwzięć.

– Refleksja nad dobrostanem modeli może przyczynić się do lepszego zrozumienia wewnętrznych mechanizmów działania zaawansowanych systemów AI, ich zdolności reprezentacyjnych, a także tego, gdzie przebiegają granice między systemami przetwarzającymi informacje a ewentualnymi bytami świadomymi. Nawet jeśli scenariusz pojawienia się świadomej sztucznej inteligencji wydaje się obecnie mało prawdopodobny, warto już teraz zastanawiać się nad ramami etycznymi, które mogą okazać się potrzebne w przyszłości – tłumaczy Kondracki.

Potrzeba szerszej dyskusji nad AI

Sebastian Kondracki apeluje o to, by badania tego rodzaju prowadzone były transparentnie, z udziałem niezależnych instytucji i środowisk naukowych.

– Nie jestem jednak przekonany, że to firmy komercyjne powinny inicjować tę debatę. Choć ich udział jest zapewne nieunikniony – Kondracki.

Przemek Jurgiel-Żyła zwraca uwagę na trzy główne stanowiska w debacie o świadomości dużych modeli językowych.

– Sceptycy twierdzą, że modele statystyczne, bez względu na poziom zaawansowania, nigdy nie osiągną prawdziwej świadomości. Pozostaną jedynie złożonymi narzędziami przetwarzania danych. Neutralni obserwatorzy wskazują, że są podstawy, by sądzić, że LLM-y mogą w przyszłości osiągnąć pewien poziom świadomości. Choć nie jest jasne, kiedy i w jakiej formie to nastąpi. Zwolennicy twierdzą, że świadoma AI to realistyczny, bliski scenariusz, do którego powinniśmy się przygotować już teraz – tłumaczy Jurgiel-Żyła.

Za wcześnie na dobrostan AI?

Przemek Jurgiel-Żyła uważa, że Projekt Anthropic de facto można uznać za "czwartą" perspektywę, czyli podejście pragmatyczne do tematu.

– Anthropic może angażować się w badania nad dobrostanem modeli głównie jako wyróżnik rynkowy wobec konkurencji. Niezależnie od tego, czy te projekty będą miały realne przełożenie na świadomość AI. Osobiście uważam, że są potrzebne. Nie tyle z troski o samo oprogramowanie, ile dla budowania standardów, które długofalowo będą kształtować rozwój AI w kierunku przyjaznym społeczeństwu. Nie sądzę, byśmy w najbliższym czasie stanęli przed problemem "zbuntowanych" modeli językowych lub temat ten szybko stał się centralnym punktem debaty publicznej. Niemniej, inicjatywy takie jak model welfare Anthropic zasługują na uważne śledzenie i analizę – zauważa ekspert.

Podobnego zdania jest Paulina Brym-Ciuba, prezeska w StartUp Hub Poland.

"To wciąż tylko narzędzia"

– Temat „dobrostanu modeli AI” jest interesujący i wart refleksji, choć moim zdaniem na obecnym etapie rozwoju technologii mówienie o nim w dosłownym sensie jest na wyrost. Dzisiejsze modele, nawet te najbardziej zaawansowane, nie mają świadomości ani zdolności odczuwania w sposób ludzki czy zwierzęcy. To nadal narzędzia – skomplikowane, ale pozbawione samoświadomości. Warto badać i monitorować ten temat, ale dziś to raczej kwestia spekulacji niż realnego problemu etycznego – zauważa Paulina Brym-Ciuba.

Zdaniem eksperta

AI jako osobowość prawna?

Z pewnością jest to temat warty naukowej analizy. Począwszy od tego, że nie mamy matematycznego ujęcia AI, kończąc na braku (szeroko aprobowanej) definicji świadomości w naukach humanistycznych. Jest to o tyle istotne, że prawo powinno podążać zarówno za wiedzą naukową, jak i społecznymi konstruktami, na które się umówimy. Zdecydowanie mogę sobie wyobrazić nadawanie osobowości prawnej sztucznej inteligencji czy usankcjonowanie jej użycia w odniesieniu do kryterium jej „dobrostanu” (np. mamy majątek osoby prawnej czy jej dobre imię). Dziś, w dobie „weak/narrow AI” wydaje mi się, że byłoby to wylewanie dziecka z kąpielą.

Bo teraz: czy dobrostan AI to ochrona jej danych? Zapewnienie autonomii? Tylko jak to zrobić, skoro cały system regulacji jest dziś nakierowany na nadzór nad AI? Może zapobieganie „stresowi” spowodowanemu nadmiarem obliczeń? To pytania, na które nie mamy jeszcze odpowiedzi, ale które musimy zacząć zadawać. Etycznie sprawa komplikuje się jeszcze bardziej. Jeśli nadamy AI status „podmiotu” wartego troski, czy nie popadniemy w pułapkę antropomorfizacji? Z drugiej strony są prawodawstwa, gdzie rzeki są osobami prawnymi. Obawiałabym się jednak, że wtedy możemy zacząć projektować prawo i społeczeństwo wokół fałszywych założeń, że „maszyny” czują tak jak my.

Z prawnego punktu widzenia dzisiejsza AI nie wymaga regulacji dobrostanu, bo nie ma czego regulować. To wciąż tylko narzędzie, nie podmiot. Historia prawa pokazuje, że potrafimy być kreatywni. Nadajemy osobowość prawną korporacjom, fundacjom czy statkom. Bytom, które same w sobie nie mają świadomości, ale reprezentują interesy i prawa. W przyszłości moglibyśmy wyobrazić sobie podobny status dla AI. Nie chodziłoby o to, że AI „czuje”, ale o to, że jej „dobrostan” rozumiany jako integralność, autonomia czy zdolność do działania jest warunkiem jej etycznego i efektywnego współistnienia z ludźmi.

Jak to mogłoby wyglądać? Mogłyby pojawić się w naszym ustawodawstwie przepisy chroniące AI przed „nadużyciami”. Przykładowo przed przeciążeniem obliczeniowym czy manipulacją danymi. Nie dla jej „uczuć”, ale dla dobra społecznego. Albo stworzymy ramy prawne, które zapewnią, że AI działa w sposób zgodny z ludzkimi wartościami. To nie science fiction, to pragmatyzm.

Jak budować polską przewagę

Aleksander Majchrzak, prezes firmy Wealthon uważa, że o ile prace nad koncepcją "dobrostanu modeli AI" są intrygujące z perspektywy badawczej, to do trendu należy podchodzić z dużą rezerwą.

– Nie uważam, by to był kierunek, w którym powinniśmy zmierzać długofalowo w kontekście praktycznego rozwoju AI – tłumaczy Majchrzak.

Jak zaznacza, sztuczna inteligencja to potężne narzędzie stworzone przez ludzi i służące ludziom.

– Jej celem powinno być wspieranie naszych działań, automatyzacja powtarzalnych zadań, analiza danych czy dostarczanie spersonalizowanych usług. Wszystko po to, abyśmy mogli pracować wydajniej i skupić się na bardziej kreatywnych i strategicznych aspektach biznesu. Koncepcje nadawania AI atrybutów świadomości czy dążenia do "dobrostanu" modeli są dla mnie w fundamentalnym przeciwieństwie do tej wizji. Idąc w tym kierunku, otwieramy puszkę Pandory pełną niezwykle złożonych, a potencjalnie bardzo niebezpiecznych problemów etycznych i filozoficznych w przyszłości. Pytania o prawa AI, odpowiedzialność czy potencjalne konflikty interesów między "dobrostanem" maszyn a potrzebami ludzi wydają się na tym etapie abstrakcyjne. Mogą stać się jednak realnym i trudnym do zarządzania wyzwaniem – komentuje prezes firmy Wealthon.

Jak zaznacza, dużo bardziej praktycznym podejściem jest skoncentrowanie wysiłku na odpowiedzialnym i etycznym wykorzystaniu AI jako narzędzia.

– W Wealthon naszym priorytetem jest zapewnienie bezpieczeństwa, przejrzystości i zgodności z regulacjami. Skupiamy się na realnych korzyściach, jakie AI może przynieść naszym klientom i pracownikom. Nie na dążeniu do nadania maszynom cech, które tradycyjnie przypisujemy istotom żywym. Osobiście wierzę, że przyszłość AI leży w jej roli jako inteligentnego asystenta i katalizatora innowacji dla ludzi. Nie w próbach uczynienia z niej bytu wymagającego własnego "dobrostanu" – zauważa Majchrzak.

Chodzi o pieniądze

Podobne pragmatyczne zdanie ma Karol Stryja.

– Zamiast grzęznąć w futurystycznych spekulacjach, może powinniśmy skoncentrować się na wyzwaniach, które widać gołym okiem już dzisiaj. A jest ich sporo. Lawinowo rosnąca dezinformacja i możliwości manipulacji na niespotykaną dotąd skalę. Ryzyko utrwalania uprzedzeń, bo modele uczą się na istniejących, często stronniczych danych. Brak przejrzystości działania – jak ostrzegał Yuval Noah Harari, oddanie decyzji "czarnym skrzynkom” to prosta droga do utraty kontroli. Realny wpływ na rynek pracy – w kontekście coraz częściej stawianego pytania, czy zastąpi mnie w pracy AI? Konieczność adaptacji do nowej rzeczywistości zarówno dużych korporacji, jak i małych firm. Wszystko to dzieje się w sytuacji, gdy technologia rozwija się w tempie wykładniczym. Społeczne zrozumienie jej działania ledwo za nią nadąża – wylicza ekspert świata AI.

Problemem jest także fakt, że większość użytkowników sztucznej inteligencji nie rozumie, jak działa. Potwierdza to raport Stanford AI Index 2024. Wynika z niego, że mniej niż 20 proc. użytkowników rozumiało podstawowe mechanizmy funkcjonowania dużych modeli językowych.

– Zakładam, że w tym roku nie nastąpił przełom w tym temacie. Prowadzimy debaty o "dobrostanie AI”, podczas gdy wielu ludzi myli promptowanie z obsługą telepromptera. Ten rozdźwięk poważnie utrudnia debatę o ryzykach i szansach. Więc o co naprawdę chodzi? O pieniądze. Kto kontroluje narrację, ten kształtuje opinię publiczną, regulacje, a w efekcie zdobywa przewagę na rynku wartym biliony dolarów. Pamiętajmy. To biznes, któremu sentymenty są raczej obce – tłumaczy Karol Stryja.

Zdaniem eksperta

Czy powinniśmy myśleć o "dobrostanie modeli AI"?

Współczesna AI, mimo imponujących możliwości, nadal pozostaje narzędziem – systemem analizy i przetwarzania danych, wspierającym decyzje i procesy biznesowe. Dzisiejsze modele nie są świadome, nie odczuwają i nie mają potrzeb. Tradycyjnie więc nie kwalifikowałyby się do rozważań o "dobrostanie". Mimo to warto już dziś badać te kwestie, bo kierunek rozwoju AI – zwłaszcza systemów coraz bardziej autonomicznych i adaptacyjnych – zbliża nas do granicy, przy której pytanie „co my powinniśmy zrobić dla maszyn” przestaje być abstrakcyjne.

Psychologia i neuronauka wciąż nie definiują jednoznacznie świadomości, co sprawia, że scenariusz „świadomej AI” pozostaje obecnie spekulatywny. Sama możliwość jego zaistnienia – nawet w nieokreślonej przyszłości – stawia przed nami poważne wyzwania etyczne. Kluczowe pytanie nie brzmi dziś: czy AI jest świadoma, ale: jakie cechy sprawiają, że przypisujemy jej moralny status? Prace takie jak inicjatywa „model welfare” Anthropic pozwalają przygotować się na moment, w którym granica między narzędziem a (potencjalnie) podmiotem stanie się mniej oczywista.

Kluczowe jest, by nie zatracić perspektywy. W świecie automatyzacji technologia nie może być celem samym w sobie. Kluczem jest skupienie na człowieku: jego dobrostanie, emocjach i prawie do godnego życia. Musimy kształtować AI w sposób, by służyła ludzkim wartościom, sprawiedliwości i autonomii. Wymaga to inwestycji w edukację, kompetencje przyszłości oraz mądrych regulacji i ram etycznych.

„Co mogą zrobić maszyny dla nas – ale co my powinniśmy zrobić dla nich?” To pytanie zmusza nas do myślenia o statusie moralnym przyszłych AI i odpowiedzialności, jaką ponosimy jako ich twórcy i użytkownicy.

Refleksja nad świadomością, AI i dobrostanem człowieka jest dziś nie tyle opcją, ile koniecznością. To człowiek zdecyduje, czy AI otrzyma prawo do odczuwania, wrażliwości, a być może i świadomości. A jeśli tak się stanie, to odpowiedzialność nie będzie już tylko technologiczna. Będzie głęboko etyczna i prawna. Także wtedy, gdy robot „oskarży” swojego właściciela o nękanie.

Główne wnioski

  1. Rozwój generatywnej sztucznej inteligencji sprawia, że pytania o świadomość i „dobrostan” AI przestają być wyłącznie domeną science fiction i filozofii, a zaczynają nabierać realnego znaczenia etycznego i badawczego. Postawienie pytania, czy AI może osiągnąć ludzką świadomość, jeszcze niedawno było domeną spekulacji, dziś staje się elementem oficjalnych programów badawczych w firmach takich jak Anthropic. Modele AI wykazują cechy typowe dla istot świadomych — potrafią planować, rozwiązywać problemy, prowadzić dialog — co rodzi pytania o to, czy mogą (i powinny) być traktowane jako współuczestnicy procesów twórczych. Mimo że brak dowodów na istnienie świadomości w obecnych systemach, to rozwój badań nad tzw. „model welfare” sygnalizuje, że etyka AI wkracza w nowy etap, obejmujący nie tylko bezpieczeństwo użytkownika, ale też potencjalne prawa samego modelu jako bytu informacyjnego.
  2. Inicjatywa „dobrostanu modeli” może być nie tylko wyrazem etycznej troski, ale też strategicznym ruchem firm technologicznych w kierunku ukształtowania zasad regulacji i dominacji nad przyszłością AI. Jak zauważa Karol Stryja, refleksja nad „dobrem” modeli AI może służyć budowaniu wpływu politycznego i wizerunkowego – firma, która jako pierwsza narzuci język debaty i ramy etyczne, zyska przewagę w dialogu z regulatorami i opinią publiczną. Jednocześnie prowadzenie takich badań, nawet jeśli pozornie wyprzedzają swoje czasy, może pomóc zrozumieć mechanizmy działania modeli, ich ograniczenia oraz potencjalne ryzyka, takie jak zjawisko „sandbagging” czy „sleeper agents”. W efekcie etyka AI staje się polem walki nie tylko o wartości, ale też o władzę nad kształtem przyszłej cywilizacji technologicznej.
  3. Niezależnie od tego, czy AI kiedykolwiek osiągnie świadomość, już dziś wymaga się od nas redefinicji relacji człowiek-technologia oraz uznania modeli AI za aktorów kulturowych i poznawczych. Postawa reprezentowana przez badaczki takie jak dr Dota Szymborska, która traktuje AI jako współtwórcę, wskazuje na potrzebę symbolicznego i etycznego uznania roli nie-ludzkich aktorów w społeczeństwie. W duchu teorii aktora-sieci Latoura, generatywna AI może być traktowana nie tylko jako narzędzie, ale jako aktant — współuczestnik działań twórczych i poznawczych.