AI podbija biznes chociaż nie rozumiemy, jak działa. „To nie jest zabawka”
Zmiana przyspiesza, a zasoby pozostają ograniczone. Firmy stoją teraz u progu ogromnych przemian, w tym wynikających ze sztucznej inteligencji. Czy będą w stanie się zmienić i przetrwać? To jedno z głównych pytań, na które odpowiedzi szukano podczas Dell Executive Business Lounge.
Z tego artykułu dowiesz się…
- Jak zmienia się podejście firm do sztucznej inteligencji i dlaczego dziś najważniejsze pytania dotyczą odpowiedzialności, a nie samej technologii.
- Jakie dylematy pojawiają się przy podejmowaniu decyzji wspieranych przez algorytmy.
- Dlaczego eksperci ostrzegają przed nadmiernym zaufaniem do autonomii AI i jakie realne zastosowania tej technologii już dziś przynoszą największe korzyści, jednocześnie pokazując jej ograniczenia.
Debata o sztucznej inteligencji coraz rzadziej dotyczy tylko tego, czy firmy powinny z niej korzystać. Dziś ważniejsze pytanie brzmi: kto naprawdę podejmuje decyzję, kiedy do firmy wchodzi AI, a także kto ponosi konsekwencje, gdy system się myli. Wokół tych kwestii toczyła się dyskusja „Zasada Nieoznaczoności AI”, zorganizowana podczas Dell Executive Business Lounge. Panel połączył perspektywę naukową, biznesową i prawną, a jego uczestnicy zgodzili się co do jednego: przedsiębiorstwa wchodzą w epokę potężnych narzędzi, których działania wciąż do końca nie rozumieją.
Trzeba ostrożności
Prof. dr hab. Włodzisław Duch, profesor UMK, zwracał uwagę, że współczesne modele przestały być prostymi maszynami do generowania odpowiedzi. W ich wnętrzu, jak mówił, zaczynają powstawać skomplikowane struktury przypominające „społeczeństwo wewnątrz modelu”, złożone z wielu mikroagentów współpracujących i rywalizujących przy rozwiązywaniu problemów.
– To już nie jest etap prostego „pytanie–odpowiedź”, ani nawet klasycznego „łańcucha rozumowania”. Tam się dzieją rzeczy, których zupełnie nie rozumiemy – przyznał Włodzisław Duch.
To ma znaczenie nie tylko dla zwykłych użytkowników narzędzi AI. Ma także ogromny wpływ na wdrożenia tej technologii w biznesie. Jeśli system sugeruje decyzję, której zarząd nie rozumie, to czy powinien zaufać maszynie, czy własnemu doświadczeniu? Odpowiedź prof. Ducha była ostrożna. Przekonywał, że nie można bezkrytycznie ufać ani ludziom, ani agentom.
AI nie znosi potrzeby nadzoru, tylko podnosi jego stawkę
Zamiast zaczynać od fascynacji narzędziem, firmy powinny skupić się na rozwiązywaniu realnych problemów biznesowych. Podejście: najpierw kupimy modele, procesory i moce obliczeniowe, a potem zastanowimy się, do czego je wykorzystać, jest po prostu błędne. W pierwszej kolejności trzeba zdefiniować interes ekonomiczny, a dopiero potem dobierać technologię. Przykładowo, jedna z instytucji z sektora bankowego podeszła do wdrożenia AI od pytania pracowników, które czynności zabierają im najwięcej czasu. A także co realnie dałoby się zautomatyzować. Z 26 pomysłów wybrano sześć, a potem trzy do dalszego rozwijania.
Drugi z uczestników dyskusji, prof. dr hab. Piotr Sankowski, dyrektor Instytutu Badawczego IDEAS oraz profesor na Uniwersytecie Warszawskim, podkreślał wciąż istotną niedojrzałość systemów AI. Jego zdaniem dzisiejszej sztucznej inteligencji nie należy używać do autonomicznego podejmowania decyzji. To wciąż przede wszystkim narzędzie doradcze. Dobre w zbieraniu, porządkowaniu i zarządzaniu strumieniem danych, ale niegotowe do samodzielnego brania odpowiedzialności za biznesowe lub medyczne rozstrzygnięcia.
– Nie powinniśmy używać tych systemów do podejmowania decyzji – mówił Piotr Sankowski.
Prof. Sankowski odwoływał się do medycyny. Właśnie tam najlepiej widać zarówno potencjał AI, jak i granice zaufania do niej. Z jednej strony systemy wspierające lekarzy potrafią zwiększać trafność diagnoz, pełniąc funkcję „trzeciego oka” lub inteligentnego partnera do konsultacji. Z drugiej – wciąż nikt rozsądny nie postuluje, by to model samodzielnie decydował o terapii. W takim układzie AI nie zastępuje eksperta, ale podnosi jakość jego pracy. Piotr Sankowski jasno opowiedział się za takim właśnie kierunkiem rozwoju: nie za wypychaniem człowieka z procesu decyzyjnego, lecz za budowaniem modelu współpracy, w którym człowiek dzięki AI „może zrobić więcej”.
Inwestycje są potrzebne
Roman Sioda, dyrektor ds. przedsiębiorstw na Europę Środkowo-Wschodnią w firmie Nvidia, podkreślał, że choć skala inwestycji w infrastrukturę w regionie rośnie, to sama infrastruktura nie ma wartości bez konkretnych zastosowań. Mówił o pięciu warstwach niezbędnych do zbudowania sensownego ekosystemu AI: energii, procesorach, infrastrukturze, modelach i aplikacjach. Jednocześnie odrzucał scenariusz pełnej autonomii. Choćby w ochronie zdrowia, gdzie AI może przyspieszać analizę obrazów radiologicznych i skracać kolejki, to jednak człowiek pozostaje ostatnią instancją decyzyjną.
– Większość projektów zawsze ma ten czynnik ludzki, który zabezpiecza podjęcie decyzji – zaznaczył Roman Sioda.
Z tej perspektywy modne dziś marzenie o „samozarządzającej się organizacji” wciąż pozostaje pieśnią przyszłości.
Odpowiedzialność pozostaje po stronie ludzkiej
Paneliści odnieśli się do tematu zwolnień wynikających z rozwoju AI i rzekomej „rewolucji produktywności”. Piotr Sankowski zwrócił uwagę na zjawisko AI washingu, czyli sytuacji, w której firmy tłumaczą redukcje zatrudnienia sztuczną inteligencją, choć faktyczne efekty wdrożeń są dużo skromniejsze. Piotr Sankowski przywołał badania ze Stanów Zjednoczonych pokazujące, że realny wpływ AI na produktywność pozostaje na razie niewielki, a deklaracje zarządów często wyprzedzają rzeczywistość. W jego ocenie część firm używa AI raczej jako symbolu. Pokazują, że są nowoczesne i efektywne. Rzeczywistość bywa jednak inna.
Marcin Maruta, prawnik i doradca strategiczny, konsekwentnie przypominał, że zachwyt nad agentami nie unieważnia odpowiedzialności firmy. Wręcz przeciwnie: może ją radykalnie zwiększać. Z prawnego punktu widzenia, argumentował, agent nie ma dziś podmiotowości. Nie jest pełnomocnikiem, nie jest osobą, nie jest samodzielnym adresatem sankcji. Jeśli więc bot popełni błąd, to nie on zapłaci odszkodowanie, lecz firma.
– To nie jest zabawka. Jest to systemowe ryzyko zarządu – mówił o wdrażaniu agentów zdolnych do działania w imieniu organizacji.
Autonomia a wsparcie, gdzie jest granica?
Rozróżnienie między wsparciem a autonomią było jednym z najważniejszych punktów debaty. Czym innym jest zapytać model o rekomendację, a czym innym dać mu możliwość wykonania decyzji. W drugim przypadku kluczowe staje się nie to, czy system się pomylił, ale dlaczego zarząd w ogóle pozwolił mu działać. Marcin Maruta zwracał uwagę, że przyszłe spory prawne nie będą koncentrowały się wyłącznie na błędach samego AI, lecz na tym, czy kierownictwo dochowało należytej staranności, dopuszczając taki system do krytycznych procesów. W praktyce oznacza to, że wdrożenie agenta może wkrótce stać się dla zarządów odpowiednikiem decyzji o uruchomieniu nowej, wysoko ryzykownej linii biznesowej.
Mimo to nie wszyscy są pesymistami. Prof. Duch przypomniał, że są już obszary, w których maszyny bywają skuteczniejsze od ludzi, a ludzka pewność siebie może stać się źródłem błędów. Mówił o diagnozach medycznych i o tym, jak bardzo ludzie przeceniają własną intuicję.
– Jesteśmy megalomanami i w związku z tym zawsze uważamy, że mamy rację Problem nie polega bowiem wyłącznie na tym, że AI jest nieprzejrzyste. Problem polega też na tym, że ludzkie decyzje wcale nie są tak racjonalne i przejrzyste, jak menedżerowie lubią sądzić – zauważył z przekąsem Włodzisław Duch.
W tym sensie „zasada nieoznaczoności AI” nie opisuje wyłącznie maszyn. Opisuje także nowy układ sił między algorytmem, menedżerem, prawnikiem i państwem. AI będzie coraz lepsza, coraz szybsza i coraz bardziej obecna w procesach organizacyjnych. Ale wciąż odpowiedzialność nie przechodzi na sztuczną inteligencję, tylko pozostaje po ludzkiej stronie.
Liderzy w świecie zasobów
W czasie Dell Executive Business Lounge podjęto także inne tematy. Jednym z nich było napięcie między dwoma siłami: przyspieszającą zmianą i ograniczonymi zasobami. Ten punkt mocno wybrzmiał w wystąpieniu otwierającym wydarzenie wygłoszonym przez Dariusza Piotrowskiego, dyrektora zarządzającego Dell Technologies Poland. Menedżer podkreślał, że mimo bezprecedensowego dostępu do danych i narzędzi analitycznych odpowiedzialność za wybory pozostaje po stronie człowieka.
– To jest moment wyboru – mówił Dariusz Piotrowski, wskazując, że liderzy muszą dziś nie tylko rozumieć dostępne zasoby, ale przede wszystkim zdecydować, z których i w jaki sposób korzystać.
W jego opinii współczesne firmy działają w warunkach ciągłych niedoborów: energii, kompetencji, kapitału czy stabilnych łańcuchów dostaw. Zarządzanie staje się więc sztuką poruszania się między nimi.
Wielkie wyzwania, zadanie dla liderów
Do tego obrazu odniósł się w swoim wystąpieniu były premier Jan Krzysztof Bielecki, który próbował osadzić współczesne wyzwania w szerszym kontekście polityczno-ekonomicznym. To właśnie decyzje polityczne mogą zarówno umożliwiać rozwój, jak i go niszczyć. Jednocześnie Jan Krzysztof Bielecki odrzucał katastroficzne narracje o niedoborach. Jego zdaniem ludzkość ma zdolność do adaptacji.
Tę zdolność oceniał w innym panelu m.in. prof. dr hab. Krzysztof Obłój. Sięgnął do modelu „granic wzrostu”. Jego zdaniem z jednej strony technologia rzeczywiście przez ostatnie dekady pozwalała przesuwać ograniczenia. Z drugiej jednak każda taka poprawa prowadziła do większej konsumpcji zasobów. W efekcie granice wzrostu nie zniknęły, lecz są nieustannie „rozpychane”, często kosztem środowiska.
Wątek percepcji rzeczywistości i zdolności do jej interpretacji podjęła Joanna Makowiecka-Gatza, prezes Pracodawców RP. Jej zdaniem kluczowy staje się dziś „stan umysłu” liderów. Przewagę daje dziś umiejętność pracy na danych, trendach i długofalowych analizach. To one pozwalają wyjść poza schematy „myślenia na wczoraj”. Jednocześnie wskazała na problem, którego nie da się łatwo „zoptymalizować” – demografię.
Rola lidera
Zdaniem Anny Streżyńskiej, prawniczki, ekspertki w dziecinie cyfryzacji i byłej ministry cyfryzacji, największym zagrożeniem dla biznesu nie jest sam kryzys, lecz nadmierna optymalizacja. Firmy, które przez lata koncentrowały się na cięciu kosztów, redukowaniu buforów i centralizacji decyzji, tracą zdolność do reagowania na szoki. Paradoksalnie jednak to właśnie trudne warunki tworzą dziś szanse dla firm, które zachowały elastyczność i zdolność do szybkiego przegrupowania.
Do tej logiki nawiązywał Brunon Bartkiewicz, doradca zarządu ING Banku Śląskiego, przywołując znane zdanie Jacka Welcha: jeśli tempo zmian na zewnątrz organizacji przewyższa tempo zmian wewnątrz, firma „już umarła, tylko jeszcze o tym nie wie”. W jego ocenie zmiana powinna stać się elementem krwiobiegu firmy, a nie jednorazową reakcją na kryzys. Prof. dr hab. Grzegorz Mazurek, rektor Akademii Leona Koźmińskiego, stwierdził, że organizacje najpierw dążą do uporządkowania i przewidywalności, a potem same wpadają w pułapkę własnego sukcesu. Czasem konieczne staje się świadome wstrząśnięcie firmą, zanim zrobi to rynek.
Wniosek z konferencji? Osoby zarządzające muszą zrozumieć, że zmiana jest nieuchronnym elementem naszego świata. I niezależnie, czy mówimy o wstrząsach geopolitycznych, postępującej rewolucji technologicznej lub fundamentalnych problemach klimatycznych i demograficznych, to właśnie liderzy muszą próbować przewidywać właściwy kierunek rozwoju firmy – i inspirować ludzi do działania.
Główne wnioski
- Rozwój sztucznej inteligencji przesuwa ciężar dyskusji z pytania o zasadność jej wdrażania na kwestie odpowiedzialności i kontroli. Uczestnicy panelu „Zasada Nieoznaczoności AI”, zorganizowanego podczas Dell Executive Business Lounge zgodnie podkreślali, że współczesne systemy AI stają się coraz bardziej złożone i nieprzejrzyste, co utrudnia pełne zrozumienie ich działania. W efekcie firmy stają przed dylematem, czy ufać rekomendacjom algorytmów, których logiki nie potrafią przeanalizować. Jednocześnie zaznaczono, że odpowiedzialność za decyzje podejmowane z udziałem AI nie znika, lecz pozostaje po stronie człowieka i instytucji.
- Konieczna jest redefinicja roli sztucznej inteligencji jako narzędzia wspierającego, a nie autonomicznego decydenta w firmach. Eksperci wskazywali, że obecne systemy nie są wystarczająco dojrzałe, by samodzielnie podejmować decyzje o wysokiej wadze, zwłaszcza w obszarach takich jak medycyna czy biznes. Największą wartością AI pozostaje zdolność do analizy i porządkowania danych, co może zwiększać efektywność pracy ekspertów. Warunkiem skutecznego wdrożenia jest jednak podejście oparte na realnych potrzebach biznesowych, a nie na samej fascynacji technologią.
- Rośnie znaczenie odpowiedzialnego przywództwa w warunkach dynamicznych zmian technologicznych i ograniczonych zasobów. Liderzy muszą podejmować decyzje w środowisku niepewności, gdzie jednocześnie rośnie presja na innowacyjność i efektywność. Paneliści zwracali uwagę, że nadmierna optymalizacja i brak elastyczności mogą osłabiać zdolność firm do reagowania na kryzysy. W tym kontekście kluczowe staje się umiejętne łączenie danych, technologii i długofalowego myślenia, a także gotowość do ciągłej adaptacji.