Iluzja wiedzy w epoce AI. Scrollujemy coraz więcej, rozumiemy coraz mniej (WYWIAD)
Nigdy nie mieliśmy tak łatwego dostępu do informacji, a jednocześnie tak trudno było nam odróżnić wiedzę od szumu. O tym, dlaczego scrollowanie zastępuje nam myślenie, komu dziś ufamy bardziej niż ekspertom i jakie konsekwencje może mieć utrata wspólnej rzeczywistości, opowiada Monika Borycka, twórczyni TrendRadar.
Z tego artykułu dowiesz się…
- Dlaczego łatwy dostęp do informacji może dawać złudne poczucie wiedzy i utrudniać realne rozumienie świata.
- Jak media społecznościowe, influencerzy i sztuczna inteligencja zmieniają nasze zaufanie do faktów, ekspertów i tradycyjnych autorytetów.
- Dlaczego w świecie zalanym treściami coraz większą wartość mogą mieć osoby, które potrafią odróżnić istotne sygnały od informacyjnego szumu.
Cezary Szczepański: Czy to prawda, że jesteśmy tak naprawdę głupsi niż 20 lat temu a wiedza, którą niby mamy, tak naprawdę jest tylko iluzoryczna?
Monika Borycka: Tak, ale musimy rozróżnić to, czym jest informacja, czym jest wiedza a czym mądrość. Rzeczywiście żyjemy w erze nieograniczonego dostępu do informacji, ale z tą wiedzą jest już trochę trudniej. Bo niby wiemy, że coś się wydarzyło, ale często tego nie rozumiemy. A ten trzeci poziom, mądrość, to świadomość konsekwencji, ryzyk, szans czy ograniczeń danego faktu.
I jest źle?
Rzeczywiście żyjemy w pewnym paradoksie. Nigdy nie mieliśmy łatwiejszego dostępu do informacji, ale jednocześnie świat bardzo się skomplikował. Jesteśmy przekonani, że go rozumiemy, ale to nieprawda. I jest na to wiele badań.
Warto wiedzieć
Monika Borycka
Analityczka trendów, ekspertka w obszarze trendwatchingu i badań nad przyszłością, założycielka i CEO marki badawczo – edukacyjnej TrendRadar. Współautorka podcastu „Wycinki z przyszłości”, opiekunka merytoryczna i wykładowczyni studiów podyplomowych Trendwatching & Futures Studies na AGH w Krakowie, gdzie kształci nowe pokolenia badaczy trendów.
Na co dzień wspiera firmy oraz instytucje w lepszym rozumieniu nadchodzących zmian – prowadzi warsztaty i szkolenia, pomaga wdrażać innowacje oparte na analizie przyszłości i trendów.
Iluzja wiedzy w świecie AI
W 2024 r. niemieccy badacze udowodnili, że media społecznościowe dają nam iluzję wiedzy. Przez to wyborcy nie rozumieją wyzwań dla systemów politycznych.
Żyjemy w kryzysie przetwarzania tych informacji. Pojawienie się narzędzi generatywnej sztucznej inteligencji sprawiło, że nadprodukcja treści drastycznie wzrosła. Każdy może dziś „generować wiedzę”. Tylko nie każdy ją zrozumie. Jest jeszcze inny problem, bo wraz ze wzrostem produkcji treści spada zaangażowanie użytkowników.
Nie klikamy, tylko scrollujemy?
Ludzie nie angażują się nawet w reakcji na proste informacje. Widzimy to po badaniach młodzieży. Czytanie ze zrozumieniem jest coraz gorsze, młodzież nie angażuje się w tekst czytany. To samo obserwujemy na platformach społecznościowych. Od mniej więcej dwóch lat widzimy spadek zaangażowanie użytkowników w konsumowaniu treści.
Nowe podejście do komunikacji w internecie
Czyli komunikacja w internecie staje się jednokierunkowa…
Plus coraz bardziej widoczna jest komunikacja tzw. bot to bot, w której treści i interakcje w sieci są jednocześnie generowane i odbierane przez boty. Mamy zalew treści generowanych przez AI. A ponieważ zazwyczaj te treści są płytkie, to nie budują żadnego zaangażowania. Jesteśmy bombardowani informacjami, ale tak naprawdę ślizgamy się po płaszczyźnie wiedzy. To bardziej bodźce niż jakakolwiek wartość.
Przykład?
Największy sukces tzw. Ai slopów obserwujemy wśród odbiorców 55+. Takim osobom trudno jest rozpoznać, że treść niskiej jakości, którą oglądają, została wygenerowana przez AI, ponadto często wchodzą w interakcje z taką treścią, angażują się w komentarzach, pytając np. o przepis w reakcji na stworzony przez sztuczna inteligencję obrazek pięknie wypieczonego chleba dostrzeżony w mediach społecznościowych. To jest często wykorzystywane w celach tzw. politycznego przechwycenia, kiedy administrator grupy z takimi obrazkami nagle zmienia jej cel, nazwę i zaczyna pokazywać tam treści polityczne.
Ludzie nie nadążają za zmianami
Z czego wynika sukces takich zjawisk? Z braku dostosowania naszego umysłu i efektu wyparcia tego natłoku informacji, czy po prostu te algorytmy są tak dobre, że mamy tylko konsumować przekaz, a nie angażować się w niego?
Algorytmy rzeczywiście będą nas bodźcowały, a nie zachęcały do rozumienia. Tyle że to trwa od lat. Na tym mechanizmie powstawały platformy społecznościowe już od ponad 20 lat. Najbardziej zaawansowany jest TikTok, ale to tylko jedna kwestia. Druga to rzeczywiście nasze kompetencje. One nie rosną tak szybko, jak technologia. Kompetencje poznawcze człowieka w 2026 r. niewiele różnią się od człowieka jaskiniowego. Ale bodźców mamy tysiąckrotnie więcej dziennie. Plus te bodźce są zupełnie inne.
Nie widać żadnych większych zmian?
Są pierwsze badania, które pokazują, że korzystanie z mediów społecznościowych wpływa na pewną przebudowę naszego mózgu na poziomie neuronalnym. Ta ewolucja przebiega, ale po cichu.
W jaki sposób?
Nie widać tego od razu, ale są już badania pokazujące, że intensywne korzystanie z mediów społecznościowych może wpływać na funkcjonowanie naszego mózgu. Już badania z 2016 roku pokazały, że „lajki” aktywują układ nagrody w mózgu podobnie jak inne bodźce wzmacniające. Inne badania neurobiologiczne wykazały, że częste korzystanie z social mediów wiąże się ze zmianami w obszarach naszego mózgu odpowiedzialnych za uwagę, kontrolę impulsów i przetwarzanie nagrody. Mózg jest plastyczny i dostosowuje się do środowiska, w którym funkcjonujemy. Ciągłe powiadomienia, szybkie przewijanie treści sprawia, że tworzą się nowe adaptacyjne wzorce przetwarzania przez nas informacji.
Koncentracja spada
Jak to wpływa na nasze podejście do świata technologii?
Spada średni czas koncentracji. Tak zwany attention span maleje i wpływa także na świat rzeczywisty. Dobrym dowodem są coroczne badania Reuters Institute. Od wielu lat eksperci obserwują zjawisko „news avoidance”, czyli unikania informacji. Jesteśmy tak przytłoczeni ilością wiadomości, że po prostu się na nie zamykamy. Coraz więcej osób jest świadoma pogorszenia nastroju po tzw. doom scrollingu.
Jakie to wszystko ma konsekwencje dla nas?
Głośnym echem odbiła się sprawa rzekomego hongkońskiego filozofa Jianwei Xuna, który wydał książkę „Hypnocracy”. Okazało się, że autor to ...hybrydowa kreacja AI i człowieka, stworzona w ramach eksperymentu przez włoskiego pisarza i wydawcę Andreę Colamediciego, który wykorzystał sztuczną inteligencję do napisania książki. Publikacja traktująca o programowaniu naszej wiedzy, bodźców i demokracji przez wielkie platformy technologiczne stała się metaforą samej siebie i manipulacją, która oszukała czytelników. To, że autor nie istnieje, odkryła dopiero dziennikarka...
Nie można ufać niczemu?
Wcześniej mogliśmy się spierać o opinie na temat zaistniałych faktów. Dziś nie mamy pewności, czy te fakty w ogóle miały miejsce. Powstaje ogromna wyrwa w zaufaniu, czy to, co widzimy, jest prawdziwe. To mocno wpływa na tak zwane wspólne uniwersum dyskursu. Wcześniej mieliśmy tzw. bańki, dziś narracje o świecie rozpadły się jeszcze bardziej. Ale jeśli teraz nie mamy jednej rzeczywistości, nie ma jednego pola do rozmowy. To zostawia ślad na stanie naszej demokracji.
Polityka i demokracja w świecie AI
Tak jak w Rumunii w czasie wyborów prezydenckich, kiedy jeden z kandydatów dzięki wsparciu algorytmów niemal od zera wygrał pierwszą turę?
Tak. Ludzie przestają ufać. Badania od lat pokazują ogromny spadek zaufania i do dziennikarstwa, i do firm, i do biznesu, i do organizacji politycznych.
Tylko komuś w końcu trzeba zaufać?
Tak, ufamy temu, kto jest nam bliższy. Autorytet bliskości wypiera autorytet wiedzy.
I tak do głosu dochodzą influencerzy i samozwańczy eksperci? Jak grzyby po deszczu pojawiają się osoby, które potrafią wykreować wizerunek kogoś, kto wzbudza zaufanie – i tak budują swój autorytet.
Obecny ekosystem algorytmów nagradza pewność, prosty komunikat, takie… błyskotki. To także efekt wieloletniego kładzenia nam do głów, że trzeba budować markę osobistą. Na początku mówiłam, że ekspert to ktoś, kto operuje na wszystkich trzech poziomach: ma informację, wiedzę i mądrość. Ekspert powinien wytłumaczyć tę złożoność. Ale tłumaczenie złożoności świata wcale nie polega dziś na prostych i szybkich odpowiedziach. W czasie szkoleń dla firm prezentując różne scenariusze przyszłości, słyszę pytanie: „który scenariusz się sprawdzi?”. Odpowiadam: „nie wiem”. I widzę rozczarowanie, bo ludzie mają głód pewności. Szukają kogoś, kto im powie, co i jak trzeba zrobić. Najlepiej z błyskotkami, w prostej formie.
Eksperci wygrywają walkę o serca użytkowników
Dlatego ludzie odchodzą od tradycyjnych mediów do ekspertów z Instagrama i tiktokerów?
Coraz więcej osób czerpie informacje od influencerów. Mamy badania BBC, które mówią, że, 80 proc. influencerów nigdy nie pracowało w organizacji medialnej. Takie osoby może i mają wiedzę, ale czy posiadają na przykład odpowiednie kompetencje do weryfikowania informacji, politycznej propagandy, lobbingu biznesu? Czyli taki podstawowy zestaw, którym operujemy w tzw. tradycyjnych mediach. Z tym zjawiskiem jest jeszcze inny problem. Bo z jednej strony osoby, które czerpią wiedzę od influencerów twierdzą, że nie obserwują mediów tradycyjnych, bo im nie ufają. Co ciekawe, to samo twierdzą o influencerach…
I mimo to korzystają?
Tak, bo pojawia się autorytet oparty na bliskości. Ufam komuś, kto zbudował ze mną więź. To właśnie magiczna umiejętność influencerów. Budzą zaufanie.
Unikamy mediów, ale scrollujemy
Tylko, co to oznacza w dłuższej perspektywie? Wspominała pani o unikaniu informacji. Uciekaniu od tradycyjnych mediów. Z drugiej strony masochistycznie pozyskujemy wiedzę ze źródeł, które nie są godne zaufania. Paradoks na paradoksie.
Dlatego – z deszczu pod rynnę – część ludzi szuka rozwiązania problemów np. na platformach AI. Coraz więcej osób, z którymi rozmawiam, przekierowuje całość swojego myślenia na rozmowę z czatem.
Mimo halucynacji i ogromnego ryzyka związanego z brakiem weryfikowania informacji?
Tak. Bo czaty skonstruowane są tak, żeby nas jak najbardziej przywiązywać i budować zaufanie na tym przywiązaniu. „Pamiętają”, co do nich mówimy. Możemy je personalizować. Niektóre przybierają dosłownie formę postaci wygenerowanych przez użytkowników. Przechodzimy do ekonomii przywiązania – nie tylko do innych ludzi, ale i do AI. Przecież narzędzia GenAI tworzone są po to, by nas do nich przywiązywać. To reakcja firm technologicznych na spadający wskaźnik zaangażowania np. w mediach społecznościowych.
Jak to działa?
Tworzymy ofertę AI-chatbotów opartych na głębokich relacjach przyjacielskich lub miłosnych. Ewentualnie budujemy asystentów AI, którzy zarządzają całym naszym życiem. Przywiązujemy ludzi do usługi, która staje się w pewnym momencie niezbędna w naszym życiu lub bazują na naszych pierwotnych odruchach. Dobry przykład to cały sektor „grief AI”, czyli „ożywiania” osób zmarłych. Stoją za tym proste mechanizmy przywiązania.
Jak zmienić kierunek trendów
Czy z tej drogi nie ma już odwrotu?
Nigdy nie ma jednego kierunku. Obserwujemy też coraz silniejsze kontrtrendy. Na przykład cały ruch anty-AI czy proste hasła „AI;DR – AI; didn`t read” nawiązujące do „TLDR”. Inny aspekt to poszukiwanie głębokiej wiedzy, która coraz częściej zaczyna się przejawiać w zyskujących na popularności formatach medialnych. Wracają długie podcasty, long-formy pisane, substacki… Niby rządzi prosty przekaz, a aż 70 proc. słuchaczy podcastów twierdzi, że pozwalają im lepiej zrozumieć opisywane zjawiska. Pojawiają się też nowe możliwości, np. kuratorzy treści. Osoby, które wyłapują istotne sygnały w szumie informacyjnym i potrafią dostarczyć wiedzę innym. Dużo mówi się o rozwoju umiejętności, takich jak krytyczne myślenie czy krytyczne ignorowanie. Budowanie kontekstu z różnych informacji…
Jak duża jest ta grupa, o której pani mówi? I czy należy do nich pokolenie tzw. zetek i alfa?
Paradoksalnie największy problem z technologią ma pokolenie 60+. To oni najłatwiej łapią się na tzw. ai-slopy. Młodzież to grupa z natury krytycznie nastawiona do mainstreamu. Ci najmłodsi z kolei wychowują się z AI. Czy ta krytyczna grupa przejdzie do mainstreamu? Wiele zależy od otoczenia i tego, w jaki sposób zagospodarujemy chociażby AI literacy. To, jakie decyzje dziś podejmujemy w związku z kontrolą technologii, ma ogromne znaczenie. Sama, z perspektywy rodzica widzę, jak bardzo zachłysnęliśmy się nowymi mediami kilka lat temu. Bez ładu i składu korzystaliśmy z nich wszędzie. Dziś wszyscy rozmawiamy, czy może nie powinniśmy zakazać telefonów w szkole. Albo, po co dajemy dzieciom telefony?
Biznes a świat AI
Tylko to wciąż różne głosy w szerokiej dyskusji. Trendy są niestety jednoznaczne…
Tak, absolutnie nie mam złudzeń. Uważam, że to rozwarstwienie będzie postępować. Na pewno będą osoby, którym będzie zależało, żeby kształtować u swoich dzieci kompetencje cyfrowe, Będą też osoby, które same nie będą miały do tego przygotowania i to nie będzie ich wina.
A co dzieje się po stronie biznesu? Czy dziś rzeczywiście firmy podejmują decyzję wspartą pogłębioną refleksją, czy jednak rządzi płytka wiedza?
Różnie z tym bywa. Są i firmy świadome i dopiero zyskujące kompetencje sprawnego poruszania się w złożoności dzisiejszych wyzwań. Oczywiście jest sporo hype`u związanego z różnymi trendami czy takim szumem trendowym. Trudno mu się przeciwstawić. Mamy fale wdrożeń AI, bo przecież wszyscy wdrażają… Są firmy, które zmieniają pozycjonowanie marketingowe, bo jest jakiś chwilowy trend na TikToku. Przykładowo, wiralowość jest często mylona z prawdziwym popytem. Wiele biznesów robi „social listening”, ale nie rozumie kontekstu. Oczywiście, w niektórych branżach taki kierunek jest ważny, ale w wielu nie.
Czy wiąże się to z kwestią głębokiego zrozumienia otoczenia?
Tak, musi coraz bardziej wiązać się głębokim zrozumieniu, np. nisz. Mamy dziś do czynienia z konwergencją technologii. Powstaje coraz bardziej zaawansowane, systemowe środowisko, w którym działamy. Z drugiej strony mamy totalną defragmentaryzację narracji. Nie istnieje przykładowo wspólna przestrzeń do dyskusji. Działamy w bardzo różnorodnych niszach. Dlatego jakikolwiek komunikat trzeba budować w oparciu na konkretnych grupach. W tym biznesowi trudno jest się odnaleźć.
Silni liderzy to przyszłość biznesu
Konsultanci pomogą?
Biznes jest zachłyśnięty szybkością działania. Niestety, często brakuje czasu na rozpakowanie, wraz z ekspertem, złożoności świata. Czyli najpierw zrozumienia, co się dzieje, a potem analizy jak przekuć to na wartość strategiczną lub przewagę biznesową. Musimy pamiętać, że często nie ma jednej, dobrej odpowiedzi na konkretny problem. A już na pewno nie ma odpowiedzi szybkich.
Odnoszę takie wrażenie, że czeka nas czas bardzo silnych osobowości w biznesie. Ludzi, którzy mają wizję, opartą na wysokiej inteligencji personalnej, ale też i wiedzy, którą przetworzyli. A następnie przekonanie do tej wizji innych.
Ludzie poszukują takich liderów, bo chcą być pewni, że ktoś wskaże im drogę. Widać to nawet na poziomie społecznym. Mamy powrót swoistego mistycyzmu i to też przekłada się na biznes. Tylko moim zdaniem cichymi bohaterami aktualnej rewolucji będą jednak osoby, które mają głęboką wiedzę powiązaną z intuicją – tzw. tacit knowledge, nabywaną dzięki doświadczeniu. To mogą być długoletni pracownicy albo eksperci domenowi, którzy pracują z biznesem. Moim zdaniem mamy dobry czas dla osób, które potrafią odróżnić istotny sygnał od szumu informacji, opinii czy spektaklu.
Menedżerowie i nowa rzeczywistość
Czyli zamiast silnego lidera, mrówcza praca?
Tak, średni szczebel będzie bardzo istotny. Chodzi o osoby, które nie ekscytują się spektaklem, nie dają się porwać szumowi informacyjnemu. Ale jednocześnie nie będą na niego głusi i będą umieli wyłowić to, co istotne dla firmy.
Jakie kompetencje musi mieć taka osoba?
Z jednej strony umiejętność łączenia kropek. Kiedyś na wielu kierunkach studiów logika była przedmiotem obowiązkowym na pierwszym roku. Dobrze byłoby do tego wrócić. Bo chodzi właśnie o budowanie wiedzy, po wyciągnięciu informacji z szumu. Druga rzecz to bycie pomostem dla osób, które są zagubione w szumie informacyjnym. Czyli umiejętność zgrabnego przekazania wiedzy.
Ludzie są ogłupiani. Trzema umieć wyciągnąć wtyczkę
Jak to się wiąże z rozwojem AI i stopniowym „ogłupianiem” ludzi?
Rzeczywiście długotrwałe korzystanie ze sztucznej inteligencji powoduje na przykład spadek kreatywności. Jeśli pracujemy bez AI, jesteśmy szybciej znudzeni. Istotne będzie bardzo pragmatyczne podejście do nowych technologii. I umiejętność „wyciągnięcia wtyczki” w odpowiednim momencie.
Bierzemy notatnik i ruszamy w Bieszczady?
Tak albo czytamy dużo książek. Moja koleżanka niedawno przyznała, że zaczęła odczuwać zubożenie, jeśli chodzi o słownictwo właśnie ze względu na często wykorzystanie AI w pracy. Dlatego postanowiła wrócić do czytania książek. Taki krok popieram. A jeśli chodzi o kompetencje, to na pewno liderzy muszą budować poczucie zaufania do siebie oraz rozwijać autentyczność.
Autentyczność i greenwashing. Co się dzieje
Autentyczność jest dziś wszędzie. Tyle że praktyka jest inna. Greenwashing, charitywashing… Wczoraj chwaliliśmy się, że unikamy podatków, a dziś rzucamy setki tysięcy w czasie popularnej zbiórki…
Tak, zgadzam się. Tylko rozróżniłabym autentyczność a autentyczność w cudzysłowie. Tej pierwszej brakuje. Ale „problem” zaczyna się od lidera. Mamy osoby, które zawsze wszystko wiedzą. Wolę jednak osobę, która powie „nie wiem, zastanowię się” i gruntownie przemyśli decyzję, niż wrzuci problem do LLM i przeczyta wygenerowane oświadczenie.
Czego najbardziej się pani obawia w kontekście rozwoju technologii i jej wpływu na wiedzę i decyzyjność ludzi?
Utraty wspólnego uniwersum dyskursu. Afera Cambridge Analytica to nic przy tym, co nas czeka. Firmy technologiczne wiele się od tego czasu nauczyły. Co więcej, przechwytują największe talenty ze świata naukowego. To one tworzą najlepsze rozwiązania, które potem patentują big techy. To ogromne ryzyko i zagrożenie, przede wszystkim demokracji i wpływu na naszą pracę.
Świat cyberpunka w rzeczywistości
Idziemy w kierunku cyberpunka, czyli świata, w którym o wszystkim decydują korporacje?
Nie powiedziałabym, że złe korporacje będą o wszystkim decydowały. Nie sądzę, by ktoś „zły” siedział i planował taki świat. Po prostu widzę wpływ rozwoju technologii i sprzężenia różnych tego konsekwencji.
Dzieje się dużo „dziwnych” rzeczy, które coraz trudniej nam zrozumieć, jak omawiana już utrata zaufania do rzeczywistości. To jest niebezpieczne. Druga sprawa to powiązanie nowych narzędzi z dostępem do władzy. Claude Mythos został udostępniony tylko wybranym firmom technologicznym. Chiny nie dzielą się na zewnątrz największymi osiągnięciami. Pod spodem jest coś, czego jako zwykli obywatele nie kontrolujemy i do czego nie mamy dostępu. To wszystko ma konsekwencje, których nie umiemy do końca przewidzieć.
Kiedy będziemy mogli je przewidzieć?
Mniej więcej od 2022 r. mamy wysyp badań na temat konsekwencji wykorzystania algorytmów w mediach społecznościowych. Od ich powstania minęło ponad 20 lat. 20 lat zajęło nam zrozumienie, jakie konsekwencje mają dla nas, dla dzieci, dla systemu edukacji…
AI i problem
Tym trudniej będzie z AI…
Po cichu dzieje się tyle przesunięć, że dopiero wejście w najgłębsze poziomy wiedzy może pokazać rzeczywiste konsekwencje. Tyle że dojście do tego poziomu jest trudne i wymaga przygotowania. Chociażby od liderów, o czym już mówiłam. Musimy być tego świadomi, bo to świadomość jest pierwszym krokiem do szukania odpowiedzi jak poruszać się po tym złożonym świecie.
Nasz patronat
Zapraszamy na Infoshare 2026
Dlatego nie mogło nas tam zabraknąć. Chcemy dołożyć swoją cegiełkę do tego wyjątkowego wydarzenia.
Szczegóły wydarzenia na https://infoshare.pl/
Główne wnioski
- Żyjemy w paradoksie informacyjnym. Dostęp do informacji jest większy niż kiedykolwiek, ale nie oznacza to automatycznie wzrostu wiedzy ani mądrości. Rozmówczyni podkreśla różnicę między informacją, wiedzą a mądrością. Informacja mówi, że coś się wydarzyło. Wiedza pozwala to zrozumieć. Mądrość pomaga ocenić konsekwencje, ryzyka i ograniczenia. Problem polega na tym, że współczesny internet produkuje ogromną liczbę bodźców, ale coraz rzadziej sprzyja głębokiemu rozumieniu świata. Media społecznościowe, algorytmy i generatywna sztuczna inteligencja wzmacniają iluzję wiedzy, przez co użytkownicy mogą mieć poczucie kompetencji, choć w rzeczywistości często nie rozumieją złożoności omawianych zjawisk.
- Rozwój technologii pogłębia kryzys zaufania i rozbija wspólne pole debaty publicznej. W tekście mocno wybrzmiewa obawa, że coraz trudniej odróżnić fakty od treści sztucznie wygenerowanych, zmanipulowanych lub pozbawionych kontekstu. Przykłady „AI slopu”, fałszywych autorytetów, botów oraz influencerów pokazują, że autorytet wiedzy coraz częściej ustępuje autorytetowi bliskości. Ludzie ufają tym, z którymi czują więź, nawet jeśli nie mają oni kompetencji do rzetelnej weryfikacji informacji. To zjawisko wpływa nie tylko na media, lecz także na demokrację, politykę i biznes. Jeśli społeczeństwo traci wspólne rozumienie rzeczywistości, trudniej prowadzić debatę opartą na faktach.
- Tekst wskazuje również na rosnące rozwarstwienie kompetencyjne. Część osób będzie rozwijać krytyczne myślenie, umiejętność selekcji informacji i głębsze rozumienie technologii. Inni pozostaną bardziej podatni na manipulacje, płytkie treści i algorytmiczne bodźcowanie. Szczególne znaczenie mają tu kompetencje cyfrowe, krytyczne ignorowanie, zdolność łączenia faktów oraz umiejętność odróżniania ważnych sygnałów od szumu. W biznesie i przywództwie coraz cenniejsze mogą być osoby, które nie ulegają chwilowym trendom, lecz potrafią analizować złożoność, budować zaufanie i podejmować decyzje bez uciekania w pozorną pewność generowaną przez narzędzia AI.
