Nadchodzi era ludzi zbędnych? Jacek Dukaj: To jeden z najoczywistszych scenariuszy (WYWIAD)
Czy sztuczna inteligencja doprowadzi do momentu, w którym człowiek przestanie być potrzebny? Jacek Dukaj w rozmowie z XYZ.pl kreśli wizję świata, w którym AI nie tylko przejmuje kompetencje człowieka, ale także zmienia sens twórczości i samego człowieczeństwa.
Z tego artykułu dowiesz się…
- Jak równolegle rozwijają się dwa pozornie sprzeczne scenariusze przyszłości AI i dlaczego jeden z nich może okazać się nieograniczony, zmieniając fundamentalnie rolę człowieka w świecie.
- Dlaczego największym zagrożeniem nie jest sama dominacja sztucznej inteligencji, lecz subtelna i trudna do uchwycenia utrata kontroli nad jej rozwojem oraz wpływem na nasze decyzje i potrzeby.
- W jaki sposób AI może przeobrazić nie tylko rynek pracy i biznes, ale także kulturę, relacje międzyludzkie i samo rozumienie tego, co znaczy być człowiekiem.
Cezary Szczepański, XYZ: Który scenariusz uważa pan za bardziej prawdopodobny: AI jako narzędzie wzmacniające człowieka i jego umiejętności, czy jako środowisko, które człowieka zastępuje?
Jacek Dukaj, pisarz, autor głośnych powieści i esejów o technologii, kulturze i przyszłości człowieka: Oba te procesy postępują równolegle, przy czym ten pierwszy ma swój kres. Tylko do pewnego momentu umiejętności człowieka będą dawały przewagę wobec AI. Drugi proces kresu nie ma.
Czy brak tego kresu może oznaczać, że człowiek po prostu stanie się zbędny?
To jeden z najoczywistszych scenariuszy rozważanych od dawna w kontekście rozwoju AI. Zbędność człowieka nie musi być wszakże rozpatrywana w kategoriach zagrożenia. Zagrożenie leży w utracie przez człowieka kontroli nad AI.
Ażeby postrzegać zbędność człowieka jako tragedię, należałoby przyjąć, iż jest on niczym więcej niż narzędziem do osiągania określonych celów; gdy narzędzie przestaje się do tego nadawać, albo gdy inne narzędzia nadają się lepiej, traci ono rację bytu. Tradycyjne rozumienie człowieczeństwa jest jednak odwrotne: to człowiek jest celem, nigdy środkiem do celu. Owo „uzbędnienie” oznaczałoby zatem raczej wyzwolenie go, aby mógł w pełni realizować swoją naturę – która nie jest naturą narzędzia.
Warto wiedzieć
Jacek Dukaj
Pisarz i eseista, jeden z najważniejszych współczesnych autorów polskiej fantastyki. Laureat licznych nagród, w tym Nagrody Literackiej Nike za „Lód”. Autor głośnych powieści i esejów o technologii, kulturze i przyszłości człowieka. W swoich tekstach łączy literaturę z filozofią i analizą przemian cywilizacyjnych.
Ludzie stają się mniej inteligentni. Co to oznacza dla rozwoju AI
W czasie różnych wystąpień wspomina pan o cofnięciu procesu rozwoju przeciętnej inteligencji ludzkiej. Wynika to m.in. z coraz większego oparcia na technologii i braku konieczności używania symboli, takich jak pismo czy mowa. Czy pana zdaniem wchodzimy w okres „postpiśmienny" wynikający z rozwoju AI?
Jedno z drugim nie ma nic wspólnego. Stopniowe przechodzenie do postpiśmienności, czyli zastępowania komunikacji symbolicznej, językowej komunikacją opartą na bezpośrednim przekazie wrażeń zmysłowych, zaczęło się jeszcze w XIX wieku, wraz z rozpowszechnieniem fotografii. AI nie stanowi tu warunku koniecznego.
I to, generalizując, doprowadzi do „ogłupienia” społeczeństw?
Zatrzymanie i lekkie odwrócenie efektu Flynna osobiście wiążę właśnie z odchodzeniem od myślenia symbolami, jako że wszystkie klasyczne testy na inteligencję stanowią wprost ćwiczenia w rozpoznawaniu wzorców w zbiorach symboli i w operowaniu symbolami.
Czy można to wprost nazywać „ogłupieniem”, zależy od naszego stosunku do tych testów IQ. A szerzej – od naszej otwartości na inne rodzaje inteligencji. Czy ludzie przedpiśmienni byli głupi, bo nie umieli tak operować na symbolach? Czy np. Homer był głupcem? To samo dotyczy ludzi postpiśmiennych.
Jacek Dukaj i obawy o AI
Czy boi się pan rozwoju sztucznej inteligencji?
Przyglądam się jej z fatalistyczną fascynacją.
Dlaczego fatalistyczną?
Bo nie da się zatrzymać jej rozwoju, o ile nie nastąpią jakieś katastrofalne zdarzenia w skali całej cywilizacji człowieka. Jedyną niewiadomą pozostaje tempo tego rozwoju, czyli czas dany nam na korzystanie z technologii na tych wczesnych etapach, kiedy jeszcze zachowujemy jako taką kontrolę, a przynajmniej rozeznanie co do natury technologii i zasad jej działania.
Wykluczenie technologiczne a przyszłość świata
Czy wykluczenie technologiczne stanie się realnym problemem dla świata?
Trudno mi sobie wyobrazić, w jaki sposób świat może zostać wykluczony technologicznie.
Możemy rozmawiać o wykluczeniu lub opóźnieniu technologicznym poszczególnych krajów, warstw społecznych lub konkretnych osób. Z punktu widzenia PKB jest to problemem. Równocześnie z punktu widzenia dobrostanu jednostek może okazać się błogosławieństwem – np. zakaz używania smartfonów czy social mediów przez dzieci jest rodzajem wykluczenia technologicznego o cezurze wiekowej. Ta sprzeczność, ten konflikt interesów będzie narastać i coraz silniej kształtować kulturę człowieka. W istocie wydaje mi się on kluczową aporią cywilizacji technologicznej.
To, co robi dobrze gospodarce, nauce i maszynom, postępująco nie tylko nie robi dobrze człowiekowi, ale mu wręcz szkodzi. Człowiek bowiem nie został przystosowany do takiego życia, a jego zmiany ewolucyjne postępowały wielokrotnie wolniej niż zmiany technologiczne jego środowiska. Tak samo jak zmiany kulturowe, gdyż kultura stanowi pochodną m. in. technologii.
Utopijny cel to przywilej wykluczenia technologicznego przy jednoczesnym zachowaniu kontroli nad technologią.
Jeśli nawet to możliwe, to kto tę kontrolę będzie utrzymywał – i co z nią zrobi…
Nie bez kozery Peter Thiel przedstawia w ostatnich wykładach scenariusz globalnej kontroli postępu technologicznego jako wizję nadejścia antychrysta.
Uważam takie trwałe ograniczenie za niemożliwe (utopijne) z wielu przyczyn, między innymi właśnie dlatego, że ci ograniczający, kontrolujący sami musieliby w nieskończoność opierać się pokusie sięgnięcia po „owoc zakazany”, po AI generacji N+1. Realistycznie patrząc, sprowadziłoby się to do jakiegoś totalitarnego zamordyzmu – po czym i tak by wypuszczono dżina z butelki.
Kto wygra na rozwoju AI
Kto dziś może wygrać na wyścigu technologicznym?
Dziś nie wygra jeszcze nikt.
Na etapach pośrednich – przez najbliższe lata – będzie można wskazywać ten czy inny kraj lub korporację znajdującą się na przedzie peletonu.
Ostatecznym zwycięzcą będzie sama technologia.
Czyli utopijna wizja, o której pan wspomniał przed chwilą, nie jest możliwa i po prostu musimy szykować się na dominację sztucznej inteligencji?
Na tym polega utopijność – przeciwieństwo wizji realistycznej.
Jak technologie wpłyną na firmy
W jaki sposób te zmiany wpłyną na strukturę firm?
W idealnym świecie nastąpiłoby uelastycznienie struktury i zmniejszenie personelu – np. Palantir idzie tą ścieżką, promując wielozadaniowość, poziomą wymienność kompetencyjną. W praktyce firmy doświadczą wcześniej wielu innych dysrupcji związanych z AI.
Ale wpłynie to na zarządzanie. Przykładowo, czy zwiększy koncentrację władzy w rękach pojedynczych managerów dysponujących ogromnymi silnikami AI?
Im wyżej w strukturze jest zarządzanie ludźmi, w tym mniejszym stopniu można je outsourcować na programy. W modelu bezwzględnej maksymalizacji efektywności, gdzie w ekstremum mówi się już o jednoosobowych firmach o miliardowej waluacji, prawie wszyscy pracownicy firmy są zarazem jej menadżerami i udziałowcami, i albo jest między nimi chemia, albo taka firma nie ma racji bytu.
Czym ta chemia ma być?
Nie da się tego sprowadzić do dobrej obsługi przez AI o wysokim emocjonalnym IQ. Chodzi o całość kontaktów z ludźmi, z którymi przebywasz de facto 24/7, a tak często bywa w przypadku startupów. Przypomina to bardziej więzy rodzinne aniżeli komponowanie Excela z rubrykami cech i kompetencji.
Rola człowieka w biznesie zdaniem Jacka Dukaja
Czy w tym wszystkim mimo wszystko będzie miejsce dla człowieka? Czy pojawi się moment, w którym człowiek w procesie stanie się po prostu wąskim gardłem dla biznesu?
Z pewnością już są takie procesy. Np. w części procedur prawnych i finansowych człowiek potrzebny jest obecnie tylko po to, by złożyć podpis, czyli wziąć na siebie formalną odpowiedzialność – program nie ponosi bowiem odpowiedzialności. Inny przykład oferują procesy decyzyjne pola walki, gdzie człowiek stanowi element fatalnie opóźniający reakcje „automatycznego wojska”. Ta sama logika rządzi przecież high frequency trading.
A jak muszą się zmienić sami menedżerowie?
Jeśli AI podejmuje wszystkie decyzje, to nie ma miejsca dla żadnych menadżerów. Jeśli zaś podejmuje niektóre decyzje, a niektóre nie – to właśnie to rozróżnienie odpowiada zarazem na pytanie o kategorię kompetencji nie-AI-owych. Obecnie zakłada się, iż są to kompetencje związane bezpośrednio z odpowiedzialnością prawną, relacjami osobistymi z innymi ludźmi, umiejętnościami powiązanymi z fizyczną interakcją, „byciem w świecie”, wcieleśnieniem (embodiment) oraz pewnym zakresem intuicji emocjonalnej – chociaż w niej AI potrafi już być lepsza od ludzi. Liczy się jednak nie wyizolowany skill, ale ich kombinacja (tzw. skill deck).
Myślę, że era menadżerów, których sprawność ogranicza się wyłącznie do zarządzania, dobiega końca. Żeby zachować przewagę konkurencyjną, muszą mieć „coś więcej” – bogatszy skill deck.
Nadchodzi powrót ludzkiej kreatywności
Czy paradoksalnie ekspansja AI doprowadzi do renesansu made by human?
Tak, naturalna dynamika prowadzi do pojawienia się niszowych kontrtrendów, nawet snobizmów – jak się to stało z winylami czy rozmaitymi kraftowymi produktami spożywczymi.
Ten segment naszego świata jednak nie zginie, nawet jeśli zostanie zmarginalizowany?
Nie traćmy z oczu proporcji: z definicji są to zjawiska wielokrotnie mniejsze niż dominujący trend optymalizacji dzięki AI. Zresztą w większości dziedzin obsługa przez człowieka stanie się znakiem wysokiej klasy, ekskluzywności – nawet jeśli w istocie człowiek będzie tam pełnił rolę „kwiatka do AI”.
Personalizacja a kontakt z człowiekiem
Ludzie nie porzucą kontaktu z innym człowiekiem, mimo że AI może być bardziej spersonalizowane, uległe?
Niektórzy ludzie na pewno porzucą; już porzucają. Wszyscy? Nie w przewidywalnej przyszłości. Powtórzę: Homo sapiens nie został przystosowany ewolucyjnie do takiego bytowania.
Świat materialny ma wielką inercję. Ogromna większość ludzkości nadal żyje w warunkach dominacji przyrody, nie technologii. Bańki wysokotechnologiczne odpowiadają za prawie całą współczesną produkcję kulturową, zwłaszcza tę rozpowszechnianą cyfrowo, więc mamy mocno skrzywiony obraz tych trendów i preferencji.
Przy czym „kontakt z innym człowiekiem” to bardzo ogólny termin. Kontaktujesz się z innym człowiekiem, gdy robisz zakupy w galerii handlowej i kontaktujesz się, gdy tulisz do snu niemowlę. Kontaktujesz się w tłumie na koncercie i kontaktujesz się mailując z przyjacielem osiadłym za granicą. Optymalizacja i personalizacja AI polega tu na imitowaniu tych kontaktów. Paradoksalnie, moment całkowitej nieodróżnialności kontaktu z człowiekiem od kontaktu z AI może odwrócić trend antropofobii: odtąd to bytowanie z ludźmi będzie przyrównywane do obsługi przez AI.
Czy Jacek Dukaj obawia się pisarzy AI
Jak w tym świecie zmieni się pojęcie autorstwa? Kiedy granica między „ja stworzyłem" a „model wygenerował" przestaje być wyraźna?
Napisałem o tym dwa długie eseje. W skrócie: mniej ważna jest tu prawda o możliwościach technicznych AI, a bardziej – siła przyzwyczajeń kulturowych i profil demograficzny konsumentów kultury. Dopóki w danej dziedzinie kultury dominują odbiorcy, dla których istotną częścią przeżycia np. muzyki jest sama osoba muzyka czy piosenkarza, dopóty ten model będzie podstawowym, niezależnie od faktycznego (współ)udziału twórczego AI. Różnie to wygląda dla różnych dziedzin i zmienia się w czasie.
Pamiętajmy, że sama koncepcja tak silnego autorstwa jest – w skali cywilizacyjnej – bardzo świeżym wynalazkiem. A ostatnimi laty, niezależnie od AI, coraz częściej pojawiały się argumenty przeciwko prawu copyrightowemu.
Trzeba traktować AI jako współpracownika?
W nauce już się przyjęło, by obok autorstwa ludzkiego zaznaczać udział AI w przeprowadzaniu danych obliczeń czy researchu.
Ale także wobec samego fenomentu „autorstwa” stajemy się coraz bardziej podejrzliwi. To przecież jedynie specyficzne ujęcie znacznie szerszej kwestii: na ile jakakolwiek myśl pojawiająca się w mojej głowie jest mojego autorstwa? XX wiek – począwszy od psychologii głębi, przez popularyzację praktyk psychoanalitycznych i medytacyjnych, aż do odkryć neuronauk – to historia narastającej podejrzliwości wobec podmiotowego „ja” i jego dekonstrukcji. AI stanowiłoby tu kolejne narzędzie do odsłaniania prawdy o zasadniczej iluzyjności „ja” i wszystkiego, co odeń pochodzi.
AI jako etap rozwoju ludzkości?
Wydaje mi się, że idzie pan w swoich rozważaniach w kierunku AI jako „kolejnego etapu” rozwoju ludzkości. Jakiś czas temu rozmawiałem z prof. Michałem Kosińskim z Uniwersytetu Stanforda, który wprost sugerował, że generatywna sztuczna inteligencja działa podobnie, jak ludzki mózg. My też „generujemy" treści na bazie naszych doświadczeń czy charakteru: tak samo, jak AI generuje na bazie ustawień modelu i zassanych danych.
Z tak ogólnie ujętym podobieństwem nie sposób się nie zgodzić, ale też niewiele z niego wynika. Kontrargumentem mógłby tu być tylko jakiś AI-owy Kaspar Hauser, który rozwinąłby się w całkowitym odcięciu od jakichkolwiek danych.
Absolutnie nie uważam AI za etap w rozwoju ludzkości. AI nie jest „człowiekiem następnej generacji”; nie jest w ogóle człowiekiem. Jej radykalna nieludzkość będzie się ujawniać coraz wyraźniej, w miarę wzrastania mocy AI.
Nie sądzę, by dało się sprzeciwić temu poglądowi z pozycji innych niż religijne, to znaczy uznając, że wszechświat został zaprojektowany specjalnie tak, żeby to mózg Homo sapiens był w nim najlepszą możliwą maszyną do myślenia. Jeśli nie wyznajemy tak twardej zasady antropicznej, to musimy zaakceptować, że postęp w AI w sposób konieczny prowadzi ku coraz odleglejszym od ludzkiej architekturom rozumu.
Czy jest pan zły na to, że modele mogą generować treści w pana stylu? I pojawiają się w taki sposób naśladowcy?
A pojawiają się? Nie słyszałem.
Wyzwanie byłoby niebanalne, jako że ja nie mam swojego stylu. Dopasowuję go do tematu, wiodącej idei. Prawie każdy utwór piszę w inny sposób.
„Mgła przyszła wcześniej niż zwykle. Nie taka jesienna, miękka i wilgotna, ale geometryczna – jakby ktoś zapomniał wyłączyć siatkę pomocniczą świata. Krawędzie bloków rozmywały się w równoległych płaszczyznach, ludzie znikali kawałkami: najpierw dłonie, potem twarze, na końcu zamiary”. Coś takiego stworzył mi ChatGPT. Wystarczył jeden, krótki prompt.
No więc sam pan widzi.
Przyszłość pisarzy
Wydawnictwa są jednak zasypywane mniej albo bardziej udanymi próbami naśladowania znanych autorów. Pan jest w tej komfortowej sytuacji, że ma wielkie nazwisko. A co z nowym pokoleniem, jest jeszcze przestrzeń na zupełnie ludzkie dzieła?
Tak, przez pewien czas – dopóki przeżywanie ich „poprzez” osobę ludzkiego autora będzie koniecznością dla części czytelników. Inna rzecz, że już teraz nie sposób sprawdzić, czy człowiek faktycznie sam napisał dany tekst, czy też w jakimś stopniu sygnuje produkcję AI.
To dobrze czy źle?
Nie jest dla mnie jasne, jaka wartość stanowi tu przedmiot pana troski. Jeśli czytelnicy nie są w stanie odróżnić powieści napisanej przez AI od powieści napisanej przez człowieka, to czy zostali obrabowani z jakiegoś przeżycia? A może chodzi o wartości związane z procesem twórczym, czyli o przeżycia pisarzy? Od lat przedstawiam autoteliczny model pisarstwa jako jedyny sensowny w czasach twórczej sztucznej inteligencji. Warto pisać dla samego pisania – to robi dobrze twojej duszy, mówiąc podniośle. Czy ktoś inny przeczyta twój utwór, czy nie – to nie ma znaczenia. Najważniejsze wydarzyło się w twojej głowie przez te setki godzin, gdy mozolnie pracowałeś wyobraźnią w języku i fikcji.
Kolejne dziedziny życia i kultury w sposób nieunikniony będą przechodzić z kategorii aktywności uzasadnianych zewnętrznie do kategorii aktywności autotelicznych: których racją i celem jest samo ich uprawianie. Tak jak onegdaj polowaliśmy, bo musieliśmy polować, żeby przetrwać, żeby się wyżywić; a dziś polujemy dla przeżywania samego polowania. Nie musimy polować – lepsze i tańsze pożywienie zapewnia nam cywilizacja technologiczna. I tak samo nie będziemy musieli tworzyć dzieł kultury, żeby móc zaspokoić obok potrzeb ciała potrzeby umysłu.
Przyszłość cywilizacji a sztuczna inteligencja
Tylko jak to wpłynie na ludzkość i naszą cywilizację? Istnieje zasadnicza różnica między brakiem konieczności polowania w celu zaspokojenia biologicznej potrzeby, a rozwojem technologii, która będzie nie tylko od człowieka „inteligentniejsza”, ale także będzie mogła docelowo rozwijać sama siebie.
Nie porównuję konieczności polowania do rozwoju technologii w ogóle, tylko konieczność polowania dla zaspokojenia głodu fizycznego do konieczności tworzenia kultury dla zaspokojenia głodu przeżyć estetycznych, ludycznych.
Niepokojące natomiast są konsekwencje tej zmiany w perspektywie antropologicznej (pisałem o tym m. in. w „Sztuce w czasach sztucznej inteligencji”). Jeśli bowiem uznajemy człowieka za twór także kulturowy, już w drugim pokoleniu po oddaniu kultury w ręce AI samo człowieczeństwo stanie pod znakiem zapytania.
Do pewnego momentu AI uczy się na człowieku i tworach człowieka; potem uczy się na człowieku i tworach człowieka oraz AI; potem – na człowieku będącym także tworem AI i na tworach AI wyuczonej na tworach AI, etc., etc. Na początku będziemy mówić, że przecież AI daje nam to, czego chcemy, bo optymalizuje się pod nasze pragnienia; lecz w drugim pokoleniu stanie się jasne, że również te pragnienia są produktem AI, a w każdym razie stanowią pochodną jej wytworów. Zasadnym staje się więc pytanie o to, co determinuje ścieżkę wyborów kreacyjnych AI. Nie jako kształt konkretnego utworu, ale jako zestaw warunków brzegowych wszystkich utworów.
Co oznaczać będzie człowieczeństwo
Co w takim razie będzie pana zdaniem oznaczało słowo „ludzkie” w takim świecie?
Tak samo jak obecnie i w przeszłości – będzie znaczyć to, co kultura akurat uznaje za „ludzkie”. W różnych epokach i różnych kulturach wyglądało to rozmaicie, np. z kręgu człowieczeństwa wykluczani byli mówiący innymi językami albo wyznający inne religie, albo mocno różniący się wyglądem. Obecnie natomiast jesteśmy na etapie włączania w człowieczeństwo coraz większej liczby różnych istot.
Rzecz w tym, że kultura zawsze dotąd była tworem człowieka; to my odpowiadaliśmy także za te wykluczenia i włączenia. A teraz już tworem człowieka być nie musi. Widzimy, że częściowo już nie jest.
Głębsze pytanie dotyczy tu granicy samej stosowalności takiego aparatu pojęciowego, czyli słów. I to słów denotujących kategorie abstrakcyjne jak „człowieczeństwo”, „ludzkie”, „nieludzkie” itp. Nie da się wskazać palcem człowieczeństwa, jedynie pojedynczych ludzi. Myślenie abstraktami stanowi pochodną kultury pisma, a my właśnie ją opuszczamy. Wynika to z samego postępu technologicznego, niezależnie od rozwoju AI: coraz więcej da się przekazać wprost do zmysłów, bez potrzeby zastępowania tych przekazów symbolami. Ludzie z kultur stricte oralnych w ogóle nie zadaliby pytania o człowieczeństwo, bo nigdy go nie widzieli, nie dotykali, nie posmakowali.
Nasz Patronat
Zapraszamy na Infoshare 2026
W dniach 20–21 maja 2026 roku w centrum wystawienniczym AmberExpo w Gdańsku odbędzie się kolejna edycja Infoshare. To jedna z największych konferencji technologicznych w Polsce i Europie Środkowo-Wschodniej. Tym razem mamy okrągłą, 20-stą edycję wydarzenia.
Dlatego nie mogło nas tam zabraknąć. Chcemy dołożyć swoją cegiełkę do tego wyjątkowego wydarzenia.
Szczegóły wydarzenia na https://infoshare.pl/
Główne wnioski
- Pierwszy scenariusz zakładający AI jako narzędzie wzmacniające człowieka i drugi, w którym AI go zastępuje, rozwijają się równolegle, jednak mają różną dynamikę. W ujęciu rozmówcy potencjał wspierania ludzkich kompetencji jest ograniczony. Proces zastępowania człowieka przez technologię nie ma z kolei wyraźnego kresu. Nie musi to jednak oznaczać zagrożenia samego w sobie. Kluczowe ryzyko wiąże się z utratą kontroli nad systemami AI, nie z samą „zbędnością” człowieka, którą można interpretować także jako uwolnienie od funkcji czysto narzędziowych.
- Rozmówca wskazuje, że rozwój AI wpisuje się w szersze przemiany kulturowe i poznawcze niezależne od samej technologii. Zjawiska takie jak odchodzenie od myślenia symbolicznego czy zmiany w sposobach komunikacji rozpoczęły się wcześniej i wpływają na sposób postrzegania inteligencji. Jednocześnie tempo zmian technologicznych znacząco przewyższa tempo adaptacji biologicznej i kulturowej człowieka. To rodzi napięcia między efektywnością systemów a dobrostanem jednostek. Ten konflikt interesów jest przedstawiony jako jedno z centralnych wyzwań współczesnej cywilizacji.
- W kontekście gospodarki i kultury AI będzie stopniowo przejmować coraz więcej funkcji decyzyjnych i twórczych. Zmieni to chociażby strukturę firm, rolę menedżerów oraz znaczenie pracy ludzkiej. Człowiek pozostanie istotny tam, gdzie kluczowe są odpowiedzialność, relacje i fizyczna obecność. W wielu obszarach stanie się jednak czynnikiem spowalniającym procesy. Jednocześnie pojawią się niszowe kontrtrendy, w których „ludzkość” stanie się wartością ekskluzywną. W dłuższej perspektywie oddanie kultury w ręce AI może prowadzić do redefinicji samego człowieczeństwa. Te dotąd było kształtowane wyłącznie przez ludzi.

