Pilne
Sprawdź relację:
Dzieje się!
Technologia

Firmy masowo inwestują w AI, ale tylko nieliczne na tym zarabiają. „To klienci płacą nasze pensje" (WYWIAD)

Bezrefleksyjne wdrażanie AI wszędzie tam, gdzie może (chociaż nie musi) poprawić zyski, to droga donikąd. – Firmy będą musiały zrobić pauzę, krok w tył i zobaczyć znów swoich klientów – przekonuje Izabela Franke, ekspertka w dziedzinie transformacji cyfrowej, rozwoju produktów i customer experience.

Izabela Franke uważa, że wdrażanie AI w firmach często kończy się niepowodzeniem nie z powodu braku wiedzy liderów, lecz z braku przemyślanej strategii
Izabela Franke uważa, że wdrażanie AI w firmach często kończy się niepowodzeniem nie z powodu braku wiedzy liderów, lecz z braku przemyślanej strategii. Fot. mat. prasowe IF

Z tego artykułu dowiesz się…

  1. Dlaczego większość wdrożeń sztucznej inteligencji w firmach kończy się fiaskiem mimo rosnącej popularności technologii i entuzjastycznych prezentacji zarządów.
  2. Jakie nowe wskaźniki – takie jak trust score czy fairness index – mogą się stać kluczowe dla oceny skuteczności i etyczności modeli AI w relacjach z klientami.
  3. W jaki sposób firmy powinny projektować doświadczenia z algorytmami i dlaczego przyszłość biznesu będzie zależała nie tylko od technologii, ale przede wszystkim od zrozumienia ludzi.
Loading the Elevenlabs Text to Speech AudioNative Player...

Cezary Szczepański, XYZ: Czy Pani zdaniem wdrożenia AI w polskich firmach upadają dlatego, że decydenci mają jedynie mgliste pojęcie o tym, czym jest sztuczna inteligencja i jakie ma możliwości, a później dochodzi do zderzenia ze ścianą, po którym wszystko się kończy?

Izabela Franke: Przyczyna jest inna. Sztuczna inteligencja jest z nami już od pewnego czasu. Widzimy to zresztą w danych. Tegoroczny raport McKinseya pokazał jasno, że na świecie 88 proc. firm deklaruje, że eksperymentuje z AI, ale tylko 23 proc. firm realnie wdraża te rozwiązania. Co gorsza, spośród tych 23 proc. tylko 6 proc. osiąga znaczący zysk, czyli co najmniej 5 proc. EBIT. To zdecydowanie nie jest dobry wynik.

To nie wynika jednak z tego, że liderzy nie rozumieją AI i później się rozczarowują. Problem polega na tym, że firmy nie mają strategii w tym obszarze. Nie wypracowały ram odpowiedzialności za tego typu projekty, nie mają procedur do zarządzania AI, często też nie mają mierników jakości modeli, które chcą wykorzystywać. Nie wiadomo kto odpowiada za błędy wdrożonego AI. I – co gorsza – z mojej perspektywy, czyli wpływu AI na ludzi i konsumentów, brakuje kontroli nad tym, jak modele oddziałują na klientów.

Warto wiedzieć

Izabela Franke

Doświadczona ekspertka w dziedzinie cyfrowej transformacji i customer experience z ponad 15-letnim stażem w sektorze IT i usług doradczych. W latach 2022-2024 r. pełniła funkcję Head of Advisory w firmie Future Mind. Odpowiadała tam za doradztwo strategiczne w zakresie transformacji cyfrowej, ze szczególnym uwzględnieniem hiperpersonalizacji komunikacji i doświadczeń klienta.

Wcześniej, pracując w PwC Poland jako Vice Director i Head of Digital Ecosystems, wspierała organizacje w obszarach front-office (marketing, sprzedaż, obsługa klienta) łącząc biznes, technologię oraz doświadczenia użytkownika. Realizowała projekty dla firm z branż: retail, FMCG, finansowej, paliwowej, transportowej i medialnej. Autorka publikacji dotyczących doświadczeń klienta i marketingu opartego na danych (m.in. „Biblia e-biznesu”), a także wykładowca studiów podyplomowych na Uniwersytecie Łódzkim w zakresie e-commerce.

AI jak piaskownica w firmach

Czyli bardziej przypomina to piaskownicę. Testujemy, sprawdzamy. A powstaje coś wtedy, jeśli ktoś w firmie będzie zdeterminowany, żeby doprowadzić projekt do końca. Tyle że wciąż AI nie staje się fundamentem działania firmy.

To może być też choroba wieku dziecięcego. AI pojawiło się nagle, wszyscy mieli FOMO i chcieli wdrażać je jak najszybciej. Mamy więc do czynienia z organizacjami dwóch prędkości. Działy technologiczne relatywnie szybko zdobywały kompetencje i mogły powiedzieć: tak, możemy wdrażać modele. Ale prędkość organizacji biznesowej nie nadążała. Po co to robimy? W jakim celu? Jaki problem chcemy rozwiązać?

Czuję, że mieliśmy już kiedyś taki syndrom. Dwadzieścia lat temu wszyscy chcieli mieć społeczności w swoich serwisach: wszyscy mają, mam i ja. Teraz wszyscy chcieli mieć AI. Tylko że to nie jest prosty projekt technologiczny.

To nie pierwsza taka moda.

Od piętnastu lat rozmawiamy choćby o marketing automation. Wszyscy widzą na slajdach, że da się wszystko, że są dane, że można je wykorzystywać. A potem kiedy dostaję maile od wielkich firm e-commerce, to unoszę brew ze zdziwienia, jeśli chodzi o próby personalizacji. Łatwo o wizję na prezentacji, trudniej o realizację. Tak samo jak w marketing automation czy omnichannel: zarządy widzą to na slajdach, ale rzeczywistość jest dużo bardziej skomplikowana.

Co stoi na przeszkodzie wdrożenia AI w firmach

Co jest więc głównym problemem?

Organizacje wciąż nie potrafią odpowiedzieć na pytania: jaki problem chcemy rozwiązać, dlaczego on jest istotny, jakie decyzje AI może podejmować, a jakich pod żadnym pozorem nie powinna. Druga kwestia to dane. Praca z nimi jest bardzo trudna. Firmy mają ich dużo, ale nie zawsze takich, jakich potrzebują, albo takich, których mogą użyć do konkretnego celu. Z AI jest podobnie. Wszyscy by chcieli, bo myślą: kto pierwszy, ten lepszy. Kupują rozwiązania, ale nie do końca potrafią je realnie wdrożyć. I dopiero wtedy pojawia się refleksja: hej, zwolnijmy i zastanówmy się, zanim zaczniemy wdrażać. Powinno być odwrotnie.

Jest tak źle?

Na szczęście coraz częściej słychać o pierwszych sensownych zastosowaniach AI. Ale dochodzi też ekonomia, w której żyjemy. AI miało optymalizować, czyli najczęściej redukować koszty. Powoli zaczynamy słyszeć, że to wcale nie jest takie proste.

Jak więc w praktyce się do tego przygotować?

Po pierwsze ustalmy, po co chcemy wdrożyć AI? Po drugie: jeśli to ma być udane wdrożenie, trzeba ustalić granice. Model, który organizacja chce wdrożyć, potrzebuje zasad, potrzebuje ograniczeń. Trzeba określić, czego model nie może robić, nawet jeśli podnosi KPI. To może być zakaz wnioskowania na podstawie danych wrażliwych czy wykorzystywania podatności konsumentów. Tylko w ten sposób, jeśli kultura i etyka organizacji nadążają za wdrożeniami, firma ma szansę zrobić to dobrze i nie stracić klientów.

Decyzyjność AI to problem

Dlaczego?

Jeśli nie wiemy, po co wdrażamy AI i jakimi ograniczeniami chcemy ją otoczyć, to oddajemy decyzje modelowi. AI to system decyzyjny, który będzie optymalizował to, co jest policzalne. Jeśli będziemy chcieli więcej klików, zoptymalizuje system tak, że tych klików będzie więcej, aż do absurdu. Może zmęczyć klientów tak, że zaczną nas unikać. Jeśli będziemy chcieli większej konwersji, proszę bardzo, ale być może kosztem zaufania.

Tylko jak to zrobić? Wyobrażam sobie, że większość firm jednak nastawi się na te kliki i leady. Skoro AI może im dostarczyć tysiąc kontaktów dziennie, to super. A konsekwencjami będzie martwić się ktoś inny.

To już jest kwestia zarządzania organizacjami, ale stara mądrość mówi, że żadnemu biznesowi nie opłaca się zabijać swoich konsumentów. Jeśli więc działania, które podejmujemy teraz, sprawiają, że klienci tracą do nas zaufanie, nie budujemy relacji, nie znamy konsumentów i ich potrzeb, to to się zemści. Inną kwestią jest rotacja na wysokich stanowiskach. Jeśli utrzymujemy ciągłość decyzji i odpowiedzialności, to takie sytuacje nie będą miały miejsca.

Dane i problem z technologią

Z AI też jest inny problem. To wciąż narzędzie, które nie rozumie, tylko bazuje na tym, czego je nauczyliśmy i na jakich danych.

Klienci to ludzie. Dla modeli klienci to kliknięcia, wielkość koszyka, dane behawioralne i predykcje. Modele nie myślą o tym, kim jest klient. One biorą dane. Jest takie pojęcie jak „digital twin”, czyli wersja klienta dająca się opisać danymi. Problem polega na tym, że to tylko cyfrowa projekcja: uproszczona, często niepełna. Jeśli organizacja patrzy na te dane jak na rzeczywisty obraz relacji z klientem, to się myli. Modele zaczynają wtedy optymalizować jedynie ten „cień”, projektując produkty i doświadczenia nie dla ludzi, lecz dla statystycznych profilów. Jeżeli więc będziemy budować strategie na niewłaściwych danych, to jeśli na wejściu mamy śmieci, na wyjściu dostaniemy śmieci do kwadratu. Jest jedno rozwiązanie wielu problemów. Nowe wskaźniki, które jasno pokażą rzeczywistą sytuację.

To znaczy?

To nie będą już tylko miary typu CTR, konwersja czy poziom sprzedaży, ale wskaźniki związane z etyczną stroną biznesu. Firmy już je wprowadzają. Jednym z nich jest trust score, czyli wskaźnik zaufania do decyzji sztucznej inteligencji. Pokazuje, czy użytkownik wierzy, że AI działa w jego interesie. Zaufanie jest największym zasobem firmy: trudno je zdobyć, bardzo łatwo stracić. Drugi przykład to fairness index, czyli wskaźnik równości decyzji modelu. Pokazuje, czy sztuczna inteligencja traktuje różne grupy klientów uczciwie, czy nie wzmacnia uprzedzeń, nie faworyzuje lub systemowo nie pomija żadnej grupy.

Jest też ratio transparentności, czyli wskaźnik pokazujący, ile decyzji da się wyjaśnić prostym językiem. Czy rozumiemy, jak działa model? Jeśli nie potrafimy tego wyjaśnić, może nie powinniśmy go wdrażać. Kolejny wskaźnik to poziom zmęczenia algorytmicznego klientów. Powinniśmy mierzyć, czy komunikacja oparta na AI nie generuje zbyt wielu komunikatów, zbyt wielu automatycznych decyzji, zbyt szybkiego tempa interakcji. Zmęczenie jest cichym zabójcą lojalności. Jest jeszcze długoterminowa jakość decyzji modelu.

Wskaźniki kluczowe do wdrożenia AI

Jak takie wskaźniki powinny wpływać na biznes?

Wdrażanie sztucznej inteligencji w organizacji to trochę jak jazda 300 km/h: AI nigdy nie śpi, cały czas optymalizuje i pracuje. Potrzebujemy więc wskaźników nie tylko po to, żeby oglądać je raz w miesiącu na dashboardach, ale po to, by pełniły rolę systemów ostrzegania – kontrolek, które mogą odciąć działanie modelu. Jeśli przekroczymy wcześniej ustalone granice, to znak, że dalsze działanie nie jest bezpieczne dla biznesu.

To trochę jak z hazardem: gdy wyniki są dobre, chcemy grać dalej. Jeśli jednak nie mamy jasnej granicy, w którym miejscu przestajemy, to finalnie prawdopodobnie stracimy więcej, bo statystyka jest nieubłagana. Podobnie w biznesie: jeśli ustaliliśmy poziom ryzyka i widzimy, że został przekroczony, nawet gdy inne KPI świecą się na zielono, musi nastąpić zatrzymanie i zastanowienie się, co dalej.

Przyszłość AI. Jak ją wdrażać

W jaki sposób w ogóle tworzyć i wdrażać takie wskaźniki? Bo proste KPI, jak CTR, są bardzo łatwe: dzielimy jedną daną przez drugą i gotowe. Ale jeśli mówimy o długoterminowym zaufaniu czy jakości decyzji modeli, to jak to w ogóle zbudować i mierzyć?

Mierzenie jest stosunkowo proste. Jeśli mówimy o tradycyjnych kampaniach czy ruchu w internecie. Natomiast największą rewolucją będzie e-commerce bazujący na agentach AI. Agenty będą ze sobą rozmawiać i ustalać, czy coś kupić czy nie. To ogromna zmiana. Dlatego musimy wprowadzić nowe podejście – model experience. Jeśli dojdziemy do sytuacji, w której to nie my kupujemy, ale nasz agent, to nagle okazuje się, że klient doświadcza marki przez działanie modelu AI. Model experience to zrozumienie, w jaki sposób model interpretuje klienta, jak go kwalifikuje, jakie sygnały uważa za ważne, kiedy rezygnuje z kontaktu, czy potrafi wytłumaczyć swoje decyzje. Dotąd projektowaliśmy flow, a teraz musimy projektować sens.

Może być tak, że produkt będzie genialny i świetnie zaprojektowany, ale jeśli model experience będzie agresywny, to firma straci zaufanie klientów. Jeśli będzie elegancki, ale dyskryminujący, straci reputację. Marki nie będą przegrywać designem czy użytecznością, tylko algorytmem.

Dlatego potrzebujemy ludzi, którzy nie będą projektować tylko tego, jak wygląda strona czy aplikacja albo jak przebiega rozmowa z przedstawicielem firmy, lecz którzy zwrócą uwagę na to, że częścią wdrażania sztucznej inteligencji jest projektowanie model experience jako elementu optymalizacji i dbałości o relację.

Ludzie powinni poznawać AI

To przewrotne. Od dekady zatrudnia się ludzi, żeby nauczyli AI rozumieć ludzi. Teraz trzeba szukać ludzi, którzy będą próbowali rozumieć AI?

Biznes nie jest o technologii, tylko o ludziach. Projekty nie są o kodzie, lecz o kulturze. Dlatego do zespołów projektowych trzeba zapraszać humanistów: ludzi od etyki, psychologów, socjologów, którzy rozumieją relacje, potrafią zarządzać doświadczeniem i mają potrzebną wrażliwość. W zmieniającym się świecie takie kompetencje są absolutnie niezbędne.

Musimy też nabywać AI literacy. Nie w sensie tworzenia modeli, ale rozumienia, jak myśli model, jak podejmuje decyzje, jakich danych potrzebuje i jakie ma ograniczenia. To jak jazda autem z autopilotem: nie musimy znać budowy silnika, ale musimy wiedzieć, kiedy wyłączyć autopilota i przejąć kierownicę. Bez tej kompetencji wszyscy będą ślepi na efekty halo, napięcia algorytmiczne, biasy i pozorną skuteczność.

A to jeden z fundamentalnych problemów z AI.

Badania MIT pokazują, że po trzech iteracjach algorytmów z błędnymi założeniami osiągamy 97 proc. skuteczności… w powielaniu błędów. Problemem nie jest jeden zły algorytm w organizacji. Problemem jest to, że może powstać megasystem, który naprawdę sprowadzi nas na manowce.

Modele wzajemnie na siebie wpływają: segmentacja wpływa na pricing, pricing na scoring, scoring na routing w obsłudze, routing na doświadczenie, doświadczenie na dane, a dane wracają do modeli. To układ jak żywy organizm – jeden problem przenosi się dalej. To działa jak bardzo aktywny wirus.

Dlatego liderzy muszą patrzeć na to, jak na system. Muszą sprawdzać nie tylko to, czy pojedynczy model działa poprawnie, ale jak modele wpływają na siebie nawzajem. I to będzie niezwykle istotne.

Jak wdrażać sztuczną inteligencję w małych i średnich firmach

Czy rzeczy, o których Pani mówi, są w ogóle do wdrożenia w średnich lub małych firmach? Bo wielkie biznesy mają zasoby i ludzi, by w ogóle nimi się zajmować.

To jest bardzo optymistyczne założenie, że duże organizacje będą robić coś, bo mają większe możliwości. Ale czy rzeczywiście będą? Zależy od firmy i jej celów. Trochę zależy też od branży. Przykładowo, w finansach systemy scoringowe to nie jest nowość, tylko wysezonowany mechanizm, a banki mocno uregulowane. Więc wdrożenia będą ostrożne. Ale e-commerce czy retail to branża, która wdraża sztuczną inteligencję jako jedna z pierwszych i robi to właściwie wszędzie. Moim zdaniem to właśnie tam pojawia się najwięcej zagrożeń.

Widzimy zbyt intensywną personalizację, niesprawiedliwy dynamic pricing, agresywne rekomendacje, a wpływ biasu na doświadczenia jest ogromny. Ta branża to robi, bo bardzo łatwo wygrać tam kliki. Ale też bardzo łatwo przegrać człowieka, bo jest duża konkurencja i łatwo odejść do innego sklepu. Może to powód, dla którego będą chcieli pilnować tego, co wdrażają.

Małym firmom wcale nie musi być trudniej. Efekt skali działa w obie strony. Małe firmy nie wdrożą wielu modeli na raz, bo to czas i koszty, ale dzięki temu wdrażając, powoli mogą się uczyć. Małe firmy nie mają też zwykle dużego bezpieczeństwa finansowego, więc są ostrożniejsze. Może się więc okazać, że to właśnie mniejsi bardziej widzą człowieka i mimo tego wyścigu, w którym AI przyspiesza gospodarkę, ludzie zaczną wybierać tam, gdzie czują się bezpieczniej i gdzie rozumieją, jak technologia na nich wpływa, gdzie są traktowani fair.

Gdzie dziś się znajdujemy, jeśli chodzi o te procesy? Wspominała pani, że niby wszyscy o tym mówią, ale mało kto robi.

Tak, w dużym stopniu to pieśń przyszłości. AI wprowadzane w organizacjach dotyczy nadal głównie backoffice i bardzo prostych rzeczy jak sprawdzenie dni urlopowych czy menu w kantynie. Natomiast sztuczna inteligencja rozwija się w takim tempie, że trudno przewidywać przyszłość. Jedno jest pewne: świat za rok będzie wyglądał inaczej niż dzisiaj. To, że teraz cyfry pokazują, że dotąd się nie udało, oznacza, że organizacje zrobią postmortem i zastanowią się, dlaczego nie wychodziło. Wyciągną wnioski, zobaczą badania, które mówią, że AI najlepiej wdraża się w firmach etycznie i kulturowo do tego przygotowanych, gdzie nie ma luki między technologią a etyką i biznesem. I za rok możemy rozmawiać o tym, że wdrożenia mają się świetnie.

Nowy model wzrostu, czyli odpuśćmy

O to chodzi w koncepcji Growth 2.0?

Grow 1.0 to była epoka, w której wzrost zawsze oznaczał skalę. Więcej kampanii, więcej treści, więcej automatyzacji, więcej touchpointów. Grow 2.0, który musi nadejść, to wzrost oparty na jakości i decyzyjności modeli. Bo nawet jeśli mówimy o przyszłości, to musimy zakładać, że sztuczna inteligencja i modele będą coraz bardziej osadzone w naszej rzeczywistości. A to może oznaczać mniej kampanii, mniej presji, lepsze zachowanie modeli i większą przejrzystość. Grow 1.0 to była era szybkości i wzrostu za wszelką cenę. Grow 2.0, miejmy nadzieję, będzie erą uczciwości albo przynajmniej zaufania i budowania relacji z klientami.

Czyli w uproszczeniu: zamiast cały czas bić rekordy liczby nowych klientów, jak w branży telekomunikacyjnej, bardziej skupiamy się na tym, żeby klient z nami został?

Tak. To teoretycznie zawsze był cel biznesu. Ale patrząc uczciwie – skoro wspominamy telekomunikację – tam często lepiej traktowano nowych klientów niż tych, którzy już mieli umowę. To się wypaczyło. Wydaje się, że sztuczna inteligencja paradoksalnie może wymusić powrót do korzeni.

Badania pokazują, że im więcej AI wokół nas, tym bardziej ludzie cenią cechy nieosiągalne dla sztucznej inteligencji: empatię, uczciwość, możliwość budowania prawdziwej relacji. Nie takiej relacji, jaką ChatGPT próbuje udawać, bo ludzie nie potrzebują imitacji człowieczeństwa, tylko uczciwej relacji z technologią. I ten trend będzie rósł. Firmy będą musiały na to odpowiedzieć.

Problemy na horyzoncie

Brzmi to dosyć optymistycznie. Większość ekspertów, z którymi rozmawiam obawia się deepfake`ów, w pełni zautomatyzowanych kampanii marketingowych, phishingu i tak dalej. A pani sugeruje, że jednak może być światełko w tunelu, które nie jest pociągiem.

Widzę te wszystkie zagrożenia i nadal mam nadzieję, że da się to robić inaczej.

Czy marketerzy podzielają ten pogląd?

Nie.

Co dalej z rozwojem AI i technologiami

Dobra puenta rozmowy!

Jeszcze nie. Ale mówię o przyszłości.  Z AI jest trochę jak z seksem nastolatków. Wszyscy o tym mówią, mało kto faktycznie robi. Wiadomo, że wszyscy będą próbowali znaleźć zastosowania AI. Wydarzą się historie o fejkach, agresywnych kampaniach. Dlatego, że modele puszczone wolno będą agresywne, bo agresja realizuje krótkoterminowe KPI. Musi być jednak jakiś punkt odcięcia, przeciążenia. Firmy będą musiały zrobić pauzę, krok w tył i zobaczyć znów swoich klientów. Bo – jak powiedział Jeff Bezos – to klienci płacą nasze pensje. I kolejne pokolenia klientów będą jeszcze bardziej tego świadome. Pokolenia Z i Alpha nie pamiętają świata bez algorytmów, więc będą od marek wymagać nie tylko innowacji, ale też uczciwych algorytmów i przejrzystości. Dla nich wiarygodność marki nie wynika z obietnic, tylko z zachowania jej AI. Nie chcą być targetem, tylko partnerem. 

I nawet jeśli będziemy żyć w erze agentic commerce i agenci będą podejmować decyzje za nas, to nadal to będą nasze pieniądze.

Nasz patronat

Zapraszamy na Infoshare Katowice ’25…

Już 24-25 listopada Międzynarodowe Centrum Kongresowe w Katowicach ponownie stanie się miejscem, gdzie technologia spotyka się z biznesem. To już trzecia edycja Infoshare na Śląsku, które na stałe wpisało się w kalendarz największych konferencji technologicznych w Polsce i Europie Środkowo-Wschodniej.

Dlatego nie mogło nas tam zabraknąć. Chcemy dołożyć swoją cegiełkę do tego wyjątkowego wydarzenia – każdy uczestnik tegorocznej edycji otrzyma od nas prezent w postaci miesięcznej subskrypcji XYZ bez opłat.

Szczegóły wydarzenia na https://katowice.infoshare.pl/

Główne wnioski

  1. Wdrażanie AI w firmach często kończy się niepowodzeniem nie z powodu braku wiedzy liderów, lecz z braku przemyślanej strategii. Firmy nie mają jasno określonych ram odpowiedzialności, procedur zarządzania sztuczną inteligencją, ani odpowiednich mierników jakości. Brakuje też refleksji nad tym, jakie problemy biznesowe technologia ma rozwiązać oraz jak AI wpływa na klientów. Często wdrożenia wynikają z presji FOMO, bez zrozumienia rzeczywistych potrzeb i ograniczeń.
  2. Tradycyjne wskaźniki efektywności biznesowej są niewystarczające w kontekście AI – potrzebne są nowe miary zaufania, etyki i transparentności. Przykłady takich wskaźników to trust score (zaufanie do decyzji AI), fairness index (równość w traktowaniu klientów), ratio transparentności (zrozumiałość decyzji modelu) czy poziom zmęczenia algorytmicznego. Ich rolą nie jest tylko raportowanie, lecz również pełnienie funkcji kontrolnej, sygnalizującej momenty, w których model powinien zostać zatrzymany.
  3. Kluczowym wyzwaniem przyszłości będzie projektowanie „model experience” – doświadczenia użytkownika z działaniem algorytmu, a nie tylko z produktem czy interfejsem. Sztuczna inteligencja zmienia sposób, w jaki klienci odbierają marki przez pryzmat działania algorytmów, które ich segmentują, personalizują ofertę i decydują o interakcjach. Dlatego firmy muszą zatrudniać specjalistów rozumiejących ludzi i relacje, a nie tylko technologię. Przyszłość AI wymaga nie tylko kompetencji technicznych, ale też empatii, etyki i refleksji kulturowej.