Nowy rodzaj uzależnienia? Oto jak AI wpływa na twoją psychikę (WYWIAD)
Generatywna sztuczna inteligencja może osłabiać myślenie krytyczne, zwłaszcza gdy obdarzamy ją nadmiernym zaufaniem – przekonuje Natalia Hatalska, założycielka instytutu badań nad przyszłością infuture.institute. To tylko jedno z wielu wyzwań. Rozwarstwienie społeczne, „sztuczne” związki z AI, nowy model pracy… Jak się do tego przygotować?
Z tego artykułu dowiesz się…
- Dlaczego zbyt częste korzystanie z ChatGPT może osłabić zdolności poznawcze – i jak się przed tym bronić.
- Jak sztuczna inteligencja pogłębia nierówności społeczne i kto naprawdę zyskuje na rewolucji AI.
- Dlaczego – mimo sporych pokus – nie powinniśmy zakochiwać się w sztucznej inteligencji.
XYZ: Czy rozwój narzędzi generatywnej AI grozi nam „epidemią głupoty”, bo przestajemy korzystać z własnego mózgu?
Z modeli generatywnej sztucznej inteligencji korzystamy już od czterech lat, a dziś widać wyraźnie dwie istotne zmiany. Pierwsza dotyczy rynku pracy. Za obecne zwolnienia nie odpowiada wyłącznie sytuacja gospodarcza – dużą rolę odgrywa postępująca automatyzacja. W branży IT wiele zadań, które wcześniej realizowali juniorzy – zwłaszcza absolwenci bootcampów – jest dziś przejmowanych przez AI.
Druga zmiana dopiero się wyłania. Choć wciąż brakuje pogłębionych badań, kilka miesięcy temu opublikowano raport Microsoftu. W dużym skrócie: nadmierne korzystanie ze sztucznej inteligencji wpływa negatywnie na nasze procesy poznawcze.
Czyli – upraszczając – im więcej korzystamy z generatywnej AI, tym głupsi się stajemy?
Generatywna AI może zaburzać nasze myślenie krytyczne, zwłaszcza gdy traktujemy ją z dużym zaufaniem. Widzę też inny, rosnący problem – zamiast traktować AI jako narzędzie wspomagające, coraz częściej oddajemy jej kontrolę nad zadaniami, w których byliśmy naprawdę dobrzy. W języku angielskim mówi się o „AI overreliance”, czyli nadmiernym poleganiu na sztucznej inteligencji. Jeśli ktoś pisze teksty i całkowicie przekazuje to AI, jego własne umiejętności będą stopniowo zanikać.
Warto jednak pamiętać, że jako ludzie dysponujemy różnymi rodzajami inteligencji. Przykładem może być inteligencja niejawna – czyli funkcjonowanie organizmu poza naszą świadomością, jak działanie układu hormonalnego czy proces gojenia się ran. Mamy też inteligencję ciała – pewien automatyzm widoczny choćby u wytrenowanych sportowców. Tego na razie GenAI nie jest w stanie zastąpić.
AI doprowadzi do rozwarstwienia społecznego
Czy grozi nam intelektualne rozwarstwienie społeczeństwa? Część ludzi może uzależnić się od AI, a inni – świadomi zagrożeń – zachowają i rozwijają własne kompetencje?
Takie rozwarstwienie już się dokonuje – w pewnym sensie zaczęło się od mediów społecznościowych. Zapytałam niedawno moją 14-letnią córkę, czy sądzi, że twórcy platform takich jak TikTok czy Instagram spędzają na nich tyle samo czasu, co młodzi użytkownicy. Odpowiedziała: „oczywiście, że nie”. I miała rację – nigdy nie zbudowaliby takiego biznesu, gdyby sami stali się jego ofiarami.
Ludzie mają naturalną potrzebę gromadzenia informacji – kiedyś zwiększała ona nasze szanse na przetrwanie, dziś wciąga nas w spiralę scrollowania. Mamy osoby spędzające w mediach społecznościowych 9-10 godzin dziennie. To wpływa nie tylko na ich codzienne funkcjonowanie, ale też na relacje z innymi ludźmi. Gdy do tego dochodzi jeszcze „wyręczanie” przez AI, problem się pogłębia.
Co w takim razie powinniśmy robić?
Musimy o siebie zadbać. Niedawno uświadomiłam sobie, że mój umysł i sposób myślenia to najcenniejsze, co posiadam. Dlatego staram się go świadomie pobudzać – i uczę tego samego moje dzieci. Potrzebujemy treningu krytycznego myślenia, analizy, syntezy, umiejętności czytania długich tekstów…
Przestałam wrzucać do AI prośby o tłumaczenie maili na angielski. Nie dlatego, że robiła to źle – wręcz przeciwnie. Ale zauważyłam, że przez to zaczynam tracić umiejętność samodzielnego pisania w tym języku.
AI rozmawia z dzieckiem...
Czy powinniśmy zakazać AI młodszym dzieciom – zakładając, że da się to egzekwować?
Nie jestem zwolenniczką całkowitych zakazów technologii. Najważniejsza jest edukacja – jak z niej korzystać, jakie ma zalety i zagrożenia, jak może pomagać i szkodzić. Ale jako społeczeństwo rozumiemy, że pewne rzeczy – jak palenie papierosów czy picie alkoholu – muszą być zakazane do określonego wieku, bo są szkodliwe. Tak samo powinniśmy traktować ekrany, media społecznościowe i AI. I w pewnym zakresie już to robimy – zgodnie z prawem z mediów społecznościowych nie można korzystać poniżej 13. roku życia.
Dzieci muszą być szczególnie chronione, ale nie możemy zapominać o szerszych skutkach technologii. Dlaczego dziś tyle osób ma problemy ze snem? Dlaczego coraz więcej dzieci jest krótkowzrocznych? To efekt niebieskiego światła ekranów, które wpływa zarówno na dzieci, jak i dorosłych. Popieram zakaz używania telefonów w szkołach, ale to nie rozwiąże wszystkiego. Ogromne znaczenie ma to, co dziecko widzi w domu. Jeśli rodzic woli patrzeć w telefon zamiast na dziecko, nie dziwmy się, że dziecko robi później to samo.
Jak to wszystko ma się do AI?
Dzieci powinny uczyć się świadomego korzystania z AI. To tylko narzędzie – tak jak edytor tekstu. Ale takiej umiejętności potrzebują także dorośli. Tymczasem wielu pracodawców wciąż nie ma żadnych zasad korzystania z AI. W efekcie powstaje zjawisko „shadow AI” – pracownicy korzystają z tych narzędzi mimo oficjalnych zakazów.
Język AI a człowieczeństwo
Zauważam, że wiele treści – na przykład postów na LinkedIn – wygląda, jakby było generowanych przez AI. Czasem jestem przekonany, że tekst napisał chatbot, a potem okazuje się, że autorem był człowiek. Czy naprawdę zaczynamy naśladować styl, w jakim „pisze” AI?
Zauważyłam to samo. Od niedawna popularne stało się na przykład słowo „delve” – wcześniej używane głównie przez ChatGPT i inne modele językowe, a teraz coraz częściej przez ludzi. Kiedyś był to dla mnie jasny sygnał, że tekst powstał przy użyciu AI. Dziś to już nie takie oczywiste. Nadal potrafię rozpoznać różnicę między tekstem generowanym a pisanym przez człowieka, ale rzeczywiście – coraz więcej osób przejmuje styl modeli językowych.
Warto przy tym zwrócić uwagę na inny fakt: firmy, które stworzyły najpopularniejsze modele GenAI, realnie wpływają na język, jakim się posługujemy.
Język to nie tylko sposób przekazywania wiedzy z pokolenia na pokolenie. To również nośnik emocji, myśli i relacji. AI ingeruje więc w coś głęboko ludzkiego. Dwa lata temu w modelu Replica AI – stworzonym z myślą o emocjonalnym wsparciu dla użytkowników – wyłączono funkcję sekstingu. Reakcje były dramatyczne – niektórzy twierdzili, że w wyniku tej decyzji zaczęli doświadczać myśli samobójczych. To pokazuje, jak silne emocje potrafi wywołać nawet tekst generowany przez maszynę.
AI jako partner?
Czy w takim razie nie grozi nam epidemia technologicznej samotności? Skoro GenAI może stać się partnerem, który budzi emocje, jest zawsze dostępny i niczego od nas nie oczekuje – to po co w ogóle ktoś inny, fizyczny? W efekcie nawet ci, którzy będą chcieli zbudować prawdziwy związek, nie będą mieli z kim… A przecież jednym z fundamentalnych długoterminowych problemów Zachodu jest niskie i wciąż spadające wskaźniki dzietności.
To realne zagrożenie. Pisałam o tym w książce „Wiek paradoksów”. Już wcześniej w Azji Wschodniej niektórzy wybierali roboty zamiast ludzi. A to było jeszcze przed erą ChatGPT i GenAI. Dziś coraz więcej osób korzysta z modeli językowych także w celach emocjonalnych. Podam przykład: w zeszłym roku miałam poważny problem z zapaleniem mięśni w obu rękach. Chodziłam od lekarza do lekarza, fizjoterapia, zastrzyki – niewiele pomagało. W końcu zapytałam jeden z modeli o alternatywne metody leczenia. Opisałam swoją sytuację, a on odpowiedział: „Bardzo mi przykro, że tak się u ciebie dzieje. Jak się z tym emocjonalnie czujesz?”. Szczerze mówiąc, byłam w szoku. Żaden lekarz nie zadał mi takiego pytania. Jakkolwiek to zabrzmi – poczułam się zaopiekowana.
Może to jednak coś pozytywnego? Samotni ludzie znajdą w AI swoją „drugą połówkę”?
Niestety, to tak nie działa. „Związek” z AI przypomina relację z osobą narcystyczną – ja wyrażam prawdziwe emocje, a druga strona tylko je symuluje. To bardzo szkodliwe, bo zaspokajamy potrzebę bliskości tylko pozornie. Głębokie, szczęśliwe życie opiera się na realnych relacjach z innymi ludźmi. Jesteśmy istotami społecznymi. Jeśli wybierzemy zamiennik, ucierpi na tym nasz dobrostan, a budowanie prawdziwych relacji stanie się trudniejsze.
Czyli pogłębi się epidemia depresji i kryzysów psychicznych? Bo trudno sobie wyobrazić, że ludzie przestaną używać AI w taki sposób....
Zakładam, że w końcu zostaną wprowadzone regulacje. Tak samo było z mediami społecznościowymi – dopiero po latach zrozumieliśmy, że ta technologia nie działa tak, jak zakładaliśmy. W przypadku AI rozwój postępuje znacznie szybciej.
Czas na mądrą adaptację
Niewiele osób nadąża za tym, gdzie dziś jesteśmy z rozwojem generatywnej sztucznej inteligencji…
To prawda. Choć AI rozwijana jest od lat 50. XX wieku, dopiero pojawienie się ChatGPT sprawiło, że technologia ta upowszechniła się na masową skalę.
Mam wrażenie, że nasza rozmowa rysuje bardzo pesymistyczny obraz AI. Może jednak jest jakaś pozytywna strona, która przyćmi te problemy i sprawi, że jako ludzkość wejdziemy poziom wyżej?
Nie chodzi o to, żeby straszyć, tylko żeby patrzeć realistycznie. Jim Collins napisał kiedyś: „You absolutely cannot make a series of good decisions without first confronting the brutal facts.” Chodzi o to, by zaadaptować się do rzeczywistości. To, co było, już nie wróci. Musimy nauczyć się żyć w nowym świecie – mądrze i świadomie.
Jak przetrwać rewolucję AI?
W takim razie - jak?
Wykorzystujmy AI jako narzędzie, które może przyspieszyć i ułatwić naszą pracę – ale nie do wykonywania zadań, w których jesteśmy naprawdę dobrzy. Dbajmy o rozwój własnych umiejętności.
Czy w kontekście produktywności dojdzie do głębokiego rozwarstwienia społecznego? Na tych, którzy świetnie wykorzystują AI – i tych, którzy zostaną wykluczeni z powodu braku takich kompetencji?
Jeśli założymy dalszy rozwój świata cyfrowego, osoby bez umiejętności korzystania z AI rzeczywiście mogą zostać wykluczone z rynku pracy. Już wkrótce brak takich kompetencji będzie porównywalny z brakiem umiejętności obsługi internetu. Ale z drugiej strony – zagrożeniem są także ci, którzy popadną w tzw. „AI overreliance”. Jeśli oddamy jej zbyt wiele, nasze własne kompetencje będą stopniowo zanikać.
Powinno powstać „AI-owe BHP”?
Tak, zdecydowanie. Kiedyś uczono nas, że nie wolno wchodzić na obrotowe krzesło, dziś trzeba szkolić się z bezpiecznego korzystania z AI – np. z tego, by nie wprowadzać do chatbotów danych firmowych, osobowych ani finansowych.
Czy nadciąga fala „anty-ai-owców”? Ludzi, którzy z dumą będą deklarować, że nie korzystają ze sztucznej inteligencji?
Jestem przekonana, że tak. Spotkamy się jeszcze, by rozmawiać o „porzucaniu technologii” jako formie buntu. Już dziś regularnie wracają dyskusje o uzależnieniu od cyfrowego świata – to zjawisko będzie się nasilać.
Główne wnioski
- Nadmierne korzystanie z AI może prowadzić do „intelektualnej atrofii”. Sztuczna inteligencja nie tylko automatyzuje pracę, ale zaczyna wypierać kluczowe kompetencje poznawcze człowieka – takie jak krytyczne myślenie, umiejętność analizy, pisania czy rozumienia złożonych treści. Jeśli przestaniemy ćwiczyć własny umysł, ryzykujemy jego stopniowe osłabienie, co może prowadzić do „epidemii głupoty” i uzależnienia od maszyn.
- Sztuczna inteligencja pogłębia rozwarstwienie społeczne. Z jednej strony mamy osoby, które świadomie rozwijają kompetencje cyfrowe i potrafią korzystać z AI. Z drugiej – tych, którzy zostają w tyle albo całkowicie oddają kontrolę technologii. Efektem może być społeczeństwo podzielone na „cyfrowych liderów” i „cyfrowo wykluczonych”, co wpłynie na dostęp do pracy, wiedzy i możliwości rozwoju.
- AI ingeruje w sferę emocji i relacji międzyludzkich. Generatywna sztuczna inteligencja nie tylko wykonuje zadania – symuluje emocje, co prowadzi do zjawisk takich jak „technologiczna samotność” czy relacje z maszynami. Choć początkowo może to dawać iluzję bliskości, w dłuższej perspektywie osłabia zdolność do budowania autentycznych relacji z innymi ludźmi i pogłębia problemy psychiczne.
Nasz patronat
Zapraszamy na Infoshare ’25…
Dlatego XYZ nie mogło na takim spotkaniu zabraknąć. Postanowiliśmy dołożyć swoją cegiełkę do tego wydarzenia. Każdy uczestnik tegorocznej edycji Infoshare (a ma być ich ponad 6500!) dostanie od nas prezent w postaci miesięcznej subskrypcji XYZ bez opłat.
Szczegóły wydarzenia na https://infoshare.pl

