Pilne
Sprawdź relację:
Dzieje się!
Biznes Technologia

AI made in Poland: między regulacjami a innowacją

Polska ma potencjał, by rozwijać własne rozwiązania z zakresu sztucznej inteligencji, ale wciąż brakuje jej stabilnych reguł, suwerennej infrastruktury i odwagi do inwestowania w projekty o wyższym ryzyku. AI nie zatrzyma się i nie poczeka – to system prawny, sektor publiczny i rynek muszą nadążyć – mówili eksperci w trakcie debaty AI Made in Poland: regulacje vs innowacje na XXXIV Forum Ekonomicznym w Karpaczu.

Państwo powinno wskazywać kierunki rozwoju sztucznej inteligencji (np. małe modele, bezpieczne AI, przetwarzanie rozproszone), ale selekcję podmiotów i komercjalizację zostawić rynkowi. Fot. GettyImages

Z tego artykułu dowiesz się…

  1. Jakie są główne wyzwania stojące przed Polską w rozwoju ekosystemu sztucznej inteligencji.
  2. W jaki sposób regulacje, takie jak RODO i AI Act, wpływają na wdrożenia AI w Polsce.
  3. Jakie są społeczne konsekwencje rozwoju AI, w szczególności w kontekście rynku pracy.

Choć AI Act już obowiązuje, instytucje nadzorcze dopiero się tworzą, a sektor publiczny wciąż boi się ryzyka. Brakuje możliwości bezpiecznego dzielenia danych nawet w obrębie jednej gminy, a wiele kluczowych projektów grzęźnie w pilotażach. Równolegle narasta presja społeczna: AI może pogłębiać wykluczenie kobiet i wypychać młodych z rynku pracy.

Jakie są największe przeszkody? Co trzeba naprawić w pierwszej kolejności? Jak połączyć innowacyjność z odpowiedzialnością? Oto najważniejsze wnioski z debaty i konkretna lista działań, które trzeba wdrożyć – jeśli Polska chce realnie liczyć się w wyścigu o AI.

Potencjał mamy. System – niekoniecznie

Z punktu widzenia nauki Polska „idzie równo ze światem” w badaniach nad AI i cyberbezpieczeństwem. Problemem pozostaje chroniczne niedofinansowanie i komplikująca się współpraca międzynarodowa. Zastosowania są wdrażane nierównomiernie: od szybkiej popularyzacji narzędzi językowych po pierwsze projekty w administracji. Atmosfera jest dobra, brakuje jednak stabilnych warunków i pieniędzy. 

– Z jednej strony niektóre narzędzia pojawiają się szybko – choćby ChatGPT, który błyskawicznie zaczął działać w języku polskim i jest dziś szeroko dostępny. Widać duże przełożenie na praktykę – od codziennego życia po administrację. Sam uczestniczyłem w różnych przedsięwzięciach związanych z wykorzystaniem informatyki i AI w urzędach i muszę powiedzieć, że atmosfera oraz nastawienie są bardzo pozytywne – podkreślał w trakcie debaty prof. Ryszard Tadeusiewicz z Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie.

Na wszystko kładzie się cień niedofinansowania. Polska ma dziś inne, pilne priorytety: obronność, oczekiwania społeczne.

– Nauka nie jest pierwsza w kolejce po środki, których i tak jest za mało. A przecież kadry – w sensie ich kwalifikacji – mamy znakomite. Nastawienie, tak popularne, jak i naukowe – również znakomite. A warunki do pracy? Cóż, może kiedyś będą lepsze – twierdził prof. Ryszard Tadeusiewicz. 

Samorządy: chcą, ale nie mogą?

W miastach i gminach rośnie apetyt na narzędzia AI optymalizujące procedury, jednak publiczne finansowanie wymaga „pewnych wyników”, a nie eksperymentów. Ponadto narosło mnóstwo mitów i legend, często rodem z TikToka. 

– Tymczasem miasta, powiaty i gminy od dłuższego czasu realnie przygotowują się do implementacji narzędzi, które mają pomóc w optymalizacji różnych procesów. Ale samorząd, z definicji, nie może finansować projektów, które wiążą się z dużym ryzykiem niepowodzenia – nie jesteśmy funduszem VC ani aniołem biznesu – mówił w Karpaczu Jarosław Bułka, pełnomocnik ds. Transformacji Cyfrowej Urzędu Miasta Krakowa. 

Każdy projekt finansowany z publicznych środków musi się zakończyć konkretnym, wcześniej założonym wynikiem. A to ogromna bariera. Jedyną furtką są spółki celowe, ale i tu jest problem – takich przedsięwzięć nie da się łatwo ująć w klasycznym budżecie. Do tego dochodzi drugi, może jeszcze poważniejszy problem – dane.

– Mówiąc wprost: nie możemy nawet swobodnie współdzielić danych między urzędem miasta a spółkami komunalnymi. I choć to brzmi absurdalnie, podam przykład: miasto pobiera opłaty śmieciowe deklaratywnie – ktoś zgłasza, że pod danym adresem mieszka jedna osoba, więc od jednej osoby naliczana jest opłata. Tymczasem wodociągi wiedzą, że zużycie wody wskazuje na cztery lub pięć osób. Systemy edukacji podpowiadają, że z tego adresu chodzą do szkoły dzieci, a MOPS wypłaca świadczenia. I co z tego? Nie możemy tej wiedzy połączyć – relacjonował Jarosław Bułka. 

Oczywiście są już w Polsce pierwsze wdrożenia AI w samorządach – niektóre zbyt entuzjastyczne, zbyt mało krytyczne. Warto więc mieć świadomość, że oprócz barier lokalnych są też ograniczenia, jakie narzucają big techy – szczególnie jeśli chodzi o dane wrażliwe.

– Dlatego bardzo się cieszę z inicjatywy, którą wspólnie realizują Ministerstwo Cyfryzacji i Centralny Ośrodek Informatyki – mowa o AI Hubie, w którym również jako Kraków bierzemy udział. To dobry projekt – ma budować wiedzę, promować dobre praktyki i dać samorządom jasną ścieżkę, jak bezpiecznie i rozsądnie wdrażać technologie informatyczne. Bo my, jako samorząd, może nie jesteśmy skorzy do ryzyka, ale na pewno jesteśmy na nie gotowi – o ile tylko mamy narzędzia i ramy – mówił pełnomocnik ds. Transformacji Cyfrowej Urzędu Miasta Krakowa. 

Polska w globalnym wyścigu: inwencja kontra innowacja

Nie mamy rozwiniętego ekosystemu startupów.

Ekonomiści przypominają klasyczną triadę Schumpetera: inwencja – innowacja – imitacja. Polska potrafi generować pomysły i wynalazki, ale zbyt rzadko przekuwa je w produkty rynkowe. Publiczny sektor ma z definicji niski apetyt na ryzyko, więc nie jest dobrym finansistą przełomowych technologii. Bez sprawnego ekosystemu kapitału prywatnego, akceleracji i skalowania – nawet świetne rozwiązania pozostaną „na półce”.

– Nie mamy rozwiniętego ekosystemu startupów. Z wielu powodów. I nie – to nie jest rola samorządu ani sektora publicznego. Ten ostatni z definicji nie ma apetytu na ryzyko, a właśnie tego wymagają innowacje przełomowe – takie jak AI – twierdził w kolei Piotr Maszczyk, kierownik w Zakładzie Makroekonomii i Ekonomii Sektora Publicznego, Szkoła Główna Handlowa w Warszawie

Publiczne pieniądze muszą być wydawane „bezpiecznie”.

– Pracowałem w dwóch ministerstwach i pamiętam, jak jeden z kolegów mawiał: „Urzędnik najpierw strzela, a potem rysuje tarczę – dzięki temu zawsze trafia w cel”. I coś w tym jest. Bo na końcu dnia przychodzi NIK i pyta: „Na co poszły te pieniądze?” – postawił pytanie Piotr Maszczyk. 

Wnioski są pragmatyczne: państwo powinno wskazywać kierunki (np. małe modele, bezpieczne AI, przetwarzanie rozproszone), ale selekcję podmiotów i komercjalizację zostawić rynkowi. Polityka przemysłowa „bez wskazywania zwycięzców”, za to z klarownymi priorytetami i stabilnymi regułami, zwiększy szanse na to, by polska inwencja zamieniała się w innowacje.

– Fundusze VC mogą sobie pozwolić, by jeden projekt z dziesięciu wypalił. W sektorze publicznym nikt nie przyjmie do wiadomości, że jeden sukces sfinansował dziewięć porażek. Nawet jeśli to prawda. A że nie da się stworzyć tarczy antykorupcyjnej, która ochroni wszystkie dziewięć nietrafionych projektów? To już inna sprawa. Ale niestety – tak to działa – podsumował Piotr Maszczyk. 

Regulacje: między bezpieczeństwem a sprawnością

Nie jesteśmy liderem i szybko nim nie będziemy.

Wszystkie dostępne dane – choćby te od wielkiej czwórki – pokazują jasno: głównymi beneficjentami rozwoju AI są dziś Chiny i Stany Zjednoczone, które razem kontrolują około 80 proc. światowego rynku. Reszta świata, z Japonią i Koreą włącznie, rywalizuje o pozostałe 20 proc.

– Nie oszukujmy się – nie jesteśmy liderem i szybko nim nie będziemy – powiedział Dariusz Szostek, pełnomocnik ds. Cyberbezpieczeństwa AI i Cyberbezpieczeństwa z Uniwersytetu Śląskiego w Katowicach. 

W nauce wygląda to dobrze: mamy świetnych badaczy, publikacje, punkty.

– Ale jeśli spojrzymy na wdrożenia AI, to Eurostat pokazuje, że Polska jest na przedostatnim miejscu w Unii Europejskiej. Wyprzedziła nas już nawet Bułgaria. To nie jest kwestia jednej bariery – to cały zestaw problemów. 

AI Act zaczął obowiązywać, ale krajowa architektura wdrożeniowa dopiero się rodzi. Brakuje gotowych instytucji nadzorczych, standardów i rozporządzeń wykonawczych, a na to nakładają się inne ramy (RODO, rozporządzenie Data Act, dyrektywa NIS2 czy DSA). Prawnicy widzą w regulacjach nie hamulec, lecz ruch drogowy dla AI – bez nich rośnie chaos i ryzyko. Problem w Polsce to nie tyle „za dużo prawa”, ile luki, opóźnienia i brak miejsc do zgłaszania naruszeń.

– Zacznijmy od legislacji. Użyję porównania: wyobraźmy sobie, że próbujemy wyjechać z parkingu, nie stosując zasad ruchu drogowego. Teoretycznie się da – ale grozi to kraksą. I owszem, można przetrwać w chaosie – jak ja kiedyś w Pukecie, gdzie po godzinie udało mi się przebiec przez ulicę – ale starsze osoby już nie dałyby rady. W AI potrzebujemy reguł. I to reguł sensownych, a nie ich braku – podkreślał Dariusz Szostek. 

RODO: bariera czy instrukcja obsługi?

W ochronie danych wiele sporów wynika z mylenia RODO z brakiem podstawy prawnej w ustawach krajowych. Tam, gdzie ustawodawca przewidział cele i zakres przetwarzania, łączenie systemów w sektorze publicznym staje się możliwe. W praktyce to argument za mądrą regulacją nie „deregulacją za wszelką cenę”.

Równocześnie Polska – w porównaniu do części państw UE – stosuje bardziej wyważone podejście np. do anonimizacji danych medycznych.

– Trudno jest jednoznacznie powiedzieć, czy w Polsce mamy bardziej restrykcyjne podejście, czy też nie. Natomiast jeśli przyjrzymy się tematowi nakładania kar, to – moim zdaniem – Niemcy czy Francja są dużo bardziej restrykcyjne w pilnowaniu przestrzegania przepisów niż Polska – mówił w Karpaczu Michał Kosobudzki, Inspektor Ochrony Danych SANO (Centrum Zindywidualizowanej Medycyny Obliczeniowej – Międzynarodowa Fundacja Badawcza).

Polska stara się w tej kwestii dojść do racjonalnego punktu kompromisowego.

– Skupię się tu na przykładzie danych medycznych: w Niemczech funkcjonuje przekonanie, że anonimizacja danych medycznych nie jest możliwa, bo zawsze jest potencjalna możliwość identyfikacji konkretnej osoby. My mamy bardziej wyważone stanowisko – dopuszczamy taką możliwość, powołując się choćby na motyw 26 RODO, który mówi o zbilansowanych warunkach technicznych i finansowych, pozwalających ocenić, czy identyfikacja jest realna, czy nie – relacjonował Michał Kosobudzki. 

Polska wcale nie wypada więc źle, jeśli chodzi o poziom restrykcyjności.

– Dodałbym tylko, że skoro już mamy taki poziom zabezpieczeń, wynikający z rozporządzeń czy z dyrektywy (która nadal nie została u nas implementowana), to powinniśmy regulować mądrze i prowadzić bardzo szerokie konsultacje. Bo właśnie tego – konsultacji – najbardziej dziś brakuje – podsumował ekspert SANO. 

Człowiek w środku: kompetencje, uzależnienia, praca

Paneliści zwracali uwagę na zjawisko uzależniania się użytkowników od narzędzi cyfrowych – od kalkulatora po generatywne modele. To realne ryzyko erozji części kompetencji, co widać w edukacji i praktyce klinicznej. Równolegle raporty o rynku pracy sugerują, że generatywna AI mocno uderzy w zawody biurowo‑administracyjne, częściej wykonywane przez kobiety. Wymaga to debaty o przebranżowieniu, edukacji ustawicznej i być może nowym modelu redystrybucji (w tym podatków w epoce automatyzacji).

– Z raportu NASK i ILO wynika, że wprost zagrożonych jest 800 tys. miejsc pracy, które mogą zostać całkowicie zastąpione. Dodatkowo 2,4 mln – częściowo. I to jest ten moment, w którym zaczynamy zauważać, że coraz mniej jest juniorów – tych młodszych pracowników, którzy dopiero wchodzą na rynek. Do tego dochodzi fakt, że nowe zatrudnienie – szczególnie młodych osób – to już nie pełen etat, ale często tylko dwa, trzy dni w tygodniu – podkreślił Dariusz Szostek.

Niestety pod większą presją znajdą się zawody kobiece.

– Dlaczego? Ponieważ te zawody, które dziś są najczęściej zastępowane albo optymalizowane przez AI, to głównie profesje kobiece – administracja, finanse i podobne. Z badań, które zleciliśmy, bardzo poważnych i pogłębionych, jasno wynika, że ryzyko utraty pracy dla kobiet jest dwukrotnie wyższe niż dla mężczyzn – oczywiście mówimy tu o konkretnych zawodach – dodał Dariusz Szostek. 

Rekomendacje 

Polska ma potencjał, by rozwijać własny ekosystem AI – od badań, przez wdrożenia, po ochronę danych i prawa obywateli. Ale potencjał to za mało. Potrzebujemy sprawczych instytucji, klarownych zasad i odwagi do podejmowania decyzji.

Po latach dyskusji i analiz czas przejść do konkretów. AI Act już obowiązuje, ale krajowe ramy wciąż są w budowie. Samorządy, firmy i instytucje publiczne chcą działać, ale nie mają ani narzędzi, ani wytycznych. Brakuje systemu zgłoszeń, infrastruktury kontrolnej i prawnych podstaw do dzielenia się danymi między podmiotami publicznymi.

Do tego dochodzi ryzyko społeczne – od zaniku kompetencji po wykluczenie zawodowe. Szczególnie wśród kobiet, pracowników administracji czy młodych wchodzących na rynek pracy. AI to nie tylko algorytmy i modele – to także infrastruktura, zasady etyczne i konsekwencje dla całych grup społecznych.

Warto wiedzieć

Co trzeba zrobić? Rekomendacyjna checklista na dziś

  1. Ustabilizować ramy wdrożenia AI Act w Polsce: powołać operacyjne instytucje, przyjąć standardy i procedury zgłoszeń.
  2. Naprawić podstawy prawne przetwarzania danych w sektorze publicznym, by umożliwić bezpieczne współdzielenie danych między jednostkami (z audytem i rozliczalnością).
  3. Budować suwerenność technologiczną danych: preferencje dla europejskiej infrastruktury, modele „privacy‑by‑design”, oceny ryzyka dostawców.
  4. Zasilać projekty „blisko wartości”: zdrowie, bezpieczeństwo (powodzie, transport), administracja (zamówienia, sprawy obywateli) – z szybkim cyklem pilotażu.
  5. Włączyć prywatny kapitał i akceleratory: państwo wskazuje kierunki i usuwa tarcie regulacyjne, rynek selekcjonuje zwycięzców.
  6. Zadbać o ludzi: programy reskillingu, wsparcie zawodów najbardziej narażonych oraz monitoring efektów ubocznych (spadek kompetencji, uzależnienia).
Przygotowane na podstawie wypowiedzi ekspertów w trakcie debaty "AI Made in Poland: regulacje vs innowacje", która odbyła się w trakcie XXXIV Forum Ekonomicznym w Karpaczu.