Napisze pozew, doradzi albo wymyśli i wprowadzi w kosztowny błąd. „ChatGPT to nie adwokat ani doradca podatkowy”
Problemy z rozliczeniem podatku, wezwanie do złożenia wyjaśnień w skarbówce, a w skrajnych przypadkach nawet przygotowanie pozwu – to sprawy, które coraz częściej, zamiast trafiać w ręce profesjonalistów, rozwiązywane są przy pomocy sztucznej inteligencji. Eksperci wskazują jednak, że to droga donikąd. Sztuczna inteligencja, choć (często) sprawnie porusza się w interpretacjach podatkowych, nie zastąpi inteligencji autora prompta. Co więcej, często – chcąc zaproponować oczekiwaną przez pytającego odpowiedź – powołuje się na nieistniejące źródła. O próbach wykorzystania technologii w tej skomplikowanej materii, o cyfrowej sykofancji i halucynacjach rozmawiamy z ekspertami.
Z tego artykułu dowiesz się…
- Jak podatnicy bez specjalistycznej wiedzy, a jak doradcy podatkowi korzystają ze sztucznej inteligencji.
- Czym może grozić czerpanie wiedzy z odpowiedzi chatbota? Co mówią regulaminy o „doradztwie” w wykonaniu AI.
- Jak AI wpłynęło na pracę doradców podatkowych i w jaki sposób podniosło poprzeczkę dla juniorów.
Sztuczna inteligencja potrafi skrócić czas, który poświęcilibyśmy na samodzielną interpretację prawa np. podatkowego, które dla wielu podatników pozostaje trudne w interpretacji. Tę funkcję wykorzystują zarówno doradcy podatkowi, jak i użytkownicy bez specjalistycznej wiedzy. Hasła związane z podatkami znalazły się wśród najczęściej wyszukiwanych fraz w wyszukiwarce Google w 2025 r. Na wsparcie AI w sporach podatkowych liczą także specjaliści w 90 proc. ankietowanych firm. To wnioski z globalnego badania PwC Global Tax Controversy and Dispute Resolution. Sprawdzamy, jak sprawa wygląda na krajowym rynku.
AI w pracy doradcy. „Są ścisłe limity”
Modele AI potrafią odnaleźć się w gąszczu przepisów, czy np. dopasować daną interpretację podatkową do przedstawionej im przez użytkownika sprawy lub pytania. Jednak nasi rozmówcy, w pełni świadomi ograniczeń sztucznej inteligencji, zwracają uwagę na konieczność ścisłego kontrolowania zakresu jej wykorzystania.
Tomasz Jankowski – doradca podatkowy, partner w kancelarii Paczuski Taudul, mówi wprost, że doradcy podatkowi korzystają z tego typu narzędzi, jednak w ograniczonym zakresie.
- Wynika to przede wszystkim z ustawowego obowiązku zachowania tajemnicy zawodowej oraz braku pełnego zaufania do dostawców komercyjnych rozwiązań chmurowych w zakresie nieprzetwarzania i niewykorzystywania przesyłanych danych. W praktyce oznacza to, że doradcy nie przekazują do narzędzi AI żadnych informacji ani dokumentów zawierających dane klientów. W praktyce AI wykorzystywana jest przede wszystkim do szybkiego wyszukiwania informacji – wyjaśnia ekspert.
Nasz rozmówca podaje przykład, że AI radzi sobie z identyfikacją kierunków analizy, odszukaniem konkretnych regulacji czy orzecznictwa. Takie narzędzia sprawdzają się także przy tworzeniu nieskomplikowanych dokumentów (projekty umów, procedur czy regulaminów).
Ufaj, ale kontroluj
Narzędzie takie jak np. ChatGPT ma swoje ograniczenia. Widzi informacje z publicznych źródeł i na podstawie dostępnych danych technicznie poradzi sobie z wygenerowaną odpowiedzią. A co z jej poprawnością merytoryczną? Co z odpowiedzialnością za skutki udzielonej odpowiedzi? Czy ta w ogóle może być traktowana jako porada prawna? O to pytamy prawniczkę specjalizującą się w prawie nowych technologii Paulę Skrzypecką. Ekspertka wyjaśnia, co ten system „może”, a czego z kolei nie powinien, na przykładzie narzędzia ChatGPT.
Paradoks polega na tym, że dopóki sami nie jesteśmy prawnikami, nie jesteśmy w stanie zweryfikować, czy taka odpowiedź ma sens.
– ChatGPT to duży model językowy (LLM), czyli zaawansowany system generowania tekstu, a nie „cyfrowy prawnik”. Nie jest adwokatem ani radcą prawnym, nie podlega etyce zawodowej, nie obowiązuje go tajemnica zawodowa, nie może reprezentować przed sądem ani organami. Nie ma dostępu do akt spraw, rejestrów publicznych w czasie rzeczywistym ani do poufnych baz danych. Widzi wyłącznie to, co wpisze użytkownik, oraz ogólne informacje z publicznie dostępnych źródeł. Technicznie potrafi napisać opinię prawną, umowę czy pozew – ale jest to tekst generyczny, a nie efekt pracy profesjonalisty ponoszącego odpowiedzialność zawodową. Paradoks polega na tym, że dopóki sami nie jesteśmy prawnikami, nie jesteśmy w stanie zweryfikować, czy taka odpowiedź ma sens – wyjaśnia nasza rozmówczyni.
Nasi eksperci są zgodni, że tego typu narzędzia ułatwiają research (wyszukiwanie informacji), lecz każdorazowo wymagają kontroli wygenerowanej odpowiedzi. Weryfikacja po stronie użytkownika (a najlepiej profesjonalisty) to słowo klucz.
– Nigdy nie możemy iść dalej bez weryfikacji wygenerowanych wyników, zmapowania aspektów problemu, przygotowania listy ryzyk czy pytań do dalszych analiz. Sztuczna inteligencja może natomiast pomóc w upraszczaniu języka, przygotowaniu draftu dokumentu czy wysokopoziomowej analizy prawnej – jako głos doradczy lub dodatkowe źródło inspiracji. Wszędzie tam jednak, gdzie potrzebna jest indywidualna ocena, nie zastąpi naszego wkładu – dodaje prawniczka.
Na szczególną uwagę zasługują tzw. halucynacje.
Czego nie wiem, to wymyślę
Tzw. halucynacja to efekt uboczny sposobu działania takich modeli. Paula Skrzypecka wyjaśnia, że np. ChatGPT nie działa jak wyszukiwarka, jeśli zlecimy mu znalezienie konkretnego orzeczenia w bazie wyroków.
- Model przewiduje kolejne słowa, które statystycznie pasują do pytania. Jeżeli w internecie widział wiele cytowań wyroków typu „C-131/12 Google Spain” czy „Schrems II”, to nauczył się schematu: nazwa sprawy + numer + teza. Kiedy prosimy o „przykłady wyroków potwierdzających tezę X”, a w pamięci modelu nie ma dokładnego dopasowania, wówczas: „dokonstruowuje” sobie nazwę sądu, datę, sygnaturę, lub tworzy coś, co wygląda wiarygodnie, ale może w ogóle nie istnieć – wyjaśnia ekspertka.
Jeśli zatem w pełni zaufamy modelom AI, argumentując, że wygenerowana odpowiedź oparta jest na konkretnych źródłach, warto najpierw sprawdzić, czy te w ogóle istnieją.
- Narzędzia generatywne obarczone są ryzykiem tzw. halucynacji, co obserwowaliśmy w szczególności na początku przygody z tymi narzędziami. Obecnie zjawisko to nie zanikło, ale nie ma już tak powszechnego charakteru, szczególnie jeżeli nałożymy odpowiednie ograniczenia, tworząc polecenia. Niemniej jednak nadal każda informacja uzyskana za pomocą generatywnej AI musi być zweryfikowana w oficjalnych źródłach – w bazach orzeczeń sądów administracyjnych, interpretacjach KIS (Krajowej Informacji Skarbowej), aktach prawnych czy komentarzach eksperckich. Szczególnie jeżeli treści podpowiadane przez AI są zbyt piękne, żeby były prawdziwe – dodaje Tomasz Jankowski.
Dostawcy narzędzi AI sami zastrzegają: „dane wyjściowe nie muszą być poprawne”
O ryzyku błędów informują w regulaminach sami dostawcy tego typu czatów. W przypadku wspomnianego już ChataGPT w dokumencie czytamy, że „dane wyjściowe nie muszą być dokładne”. Jak dodano „nie powinno się polegać na danych wyjściowych jako na jedynym źródle ani traktować odpowiedzi jako odpowiednik porady prawnej”. W regulaminie zastrzeżono także, że nie można „używać naszych usług m.in. do udzielania specjalistycznych porad, których udzielanie wymaga licencji”.
Podobne zapisy znajdziemy w regulaminie modelu Grok, który jest wykorzystywany m.in. na platformie X. W regulaminie czytamy, że użytkownik rozumie i zgadza się z faktem, że dane mogą nie być dokładne i nie mogą stanowić profesjonalnej porady. Jak dodano „użytkownik jest odpowiedzialny za ocenę treści pod kątem jej ewentualnego wykorzystania”.
Perplexity ostrzega z kolei, by nie traktować uzyskanych danych jako porady w kwestiach inwestycyjnych, prawnych czy medycznych. Jak wprost wskazano w regulaminie „usługa nie zastąpi profesjonalnej porady”. Podobne ostrzeżenia znajdziemy w regulaminie Gemini, gdzie wprost wskazano, że odpowiedzi wygenerowane przez system oparte są na „danych treningowych”, czyli na zbiorze danych wykorzystywanych do nauki algorytmów AI.
Narzędzia generatywne nie dostarczają wiarygodnych porad podatkowych, szczególnie w sprawach bardziej złożonych. Nie znają pełnego kontekstu, nie widzą dokumentów i nie ponoszą odpowiedzialności za efekt.
– Narzędzia generatywne nie dostarczają wiarygodnych porad podatkowych, szczególnie w sprawach bardziej złożonych. Nie znają pełnego kontekstu, nie widzą dokumentów i nie ponoszą odpowiedzialności za efekt. W efekcie mylą się znacznie częściej niż człowiek dysponujący choćby podstawową wiedzą z zakresu podatków. W konsekwencji podatnicy korzystający z „porad” AI mogą podejmować decyzje w oparciu o informacje nieprecyzyjne, nieaktualne lub błędne – podsumowuje Tomasz Jankowski.
AI w sądzie. Sprawy zaszły za daleko?
Chęć cięcia kosztów i załatwiania spraw na własną rękę niejednokrotnie zwycięża – mimo jasnych ostrzeżeń, że systemy AI mogą wprowadzać w błąd.
Potwierdza to sprawa, o której mówi Joanna Lesicka, radca prawny, która reprezentowała przed sądem stronę pozwaną przez… AI. Przed Sądem Okręgowym we Wrocławiu rozstrzygnięty został spór o odszkodowanie za nieudzielone zamówienie na oprogramowanie opublikowane w bazie konkurencyjności (sygn. akt X GC 455/25). Mowa była bowiem o projekcie współfinansowanym z funduszy unijnych. Sąd ostatecznie nie dopatrzył się czynu niedozwolonego i oddalił wniosek powoda, jednak to nie przedmiot postępowania budzi największe kontrowersje.
- Powód oświadczył, że przygotował pozew z wykorzystaniem AI. Załącznikami w sprawie były screeny jego konwersacji z czatem, a odpowiedzi wygenerowane przez ChatGPT były odnośnikami w pismach procesowych. Autorytet sztucznej inteligencji przeważył nad autorytetem sądu okręgowego. Co istotne, sprawa dotyczyła kilkuset tysięcy złotych. Powód utracił cały wpis, który musiał wnieść, czyli 5 proc. od wartości przedmiotu sporu – wyjaśnia mecenas Lesicka.
Jak dodaje prawniczka, „to dowód na to, że tzw. porada ze strony AI może sporo kosztować”. Nasza rozmówczyni, odnosząc się do tej sprawy, wyjaśnia także sposób działania systemów AI, takich jak ChatGPT. Powód na pierwszy rzut oka wydawał się dobrze przygotowany do postępowania – pisma procesowe zawierały bowiem odniesienia do konkretnych przepisów prawa. Problem polegał jednak na tym, że zamiast Kodeksu cywilnego wskazywano Prawo zamówień publicznych, mimo że to pierwsze było w tej sprawie właściwą podstawą prawną.
Powiem to, co chcesz usłyszeć
– To nic innego jak sykofancja, czyli nieszczere pochlebstwo. AI, zamiast wyprowadzić użytkownika z błędu, utwierdza go w nim. To nie jest pomoc – to wzmacnianie urojenia. Systemy AI są tak skonstruowane, by zatrzymać użytkownika i przypodobać się mu. Dostosowują się do jego narracji i dostarczają kolejnych argumentów, by utwierdzić go nawet w mylnym przekonaniu. To właśnie doprowadziło do bezzasadnego procesu. Powód został przekonany przez AI o swojej nieomylności, a w rzeczywistości został wprowadzony w błąd. Powództwo nigdy nie powinno trafić do sądu. Zamiast zweryfikować fakty u profesjonalisty, powód zaufał narzędziu, które jest zaprojektowane tak, by brzmieć przekonująco, a niekoniecznie mówić prawdę – wyjaśnia nasza rozmówczyni.
Tomasz Jankowski dodaje, że „porady” wygenerowane przez AI na pierwszym rzut oka nie budzą podejrzeń.
- Systemy AI potrafią być bardzo przekonujące w swojej argumentacji. Taka porada brzmi świetnie, ale często jest niespójna z przepisami, orzecznictwem czy praktyką organów i prowadzi do błędów, których łatwo uniknąć, jeżeli tylko zachowamy ostrożność i będziemy nieufni wobec tego, co generuje nam narzędzie AI – podsumowuje ekspert.
AI w rękach profesjonalisty to prawdziwa wartość
Wartym odnotowania przykładem zrównoważonego wykorzystania AI są narzędzia do inteligentnego researchu podatkowego. W tym przypadku wspomaganie się sztuczną inteligencją bynajmniej nie polega na pełnej automatyzacji procesu doradztwa podatkowego, ale przynosi realne usprawnienia w tym procesie.
- W ostatnich miesiącach na polskim rynku pojawiło się kilka zbliżonych do siebie rozwiązań, które dotyczą zautomatyzowanego researchu podatkowego i próby generowania odpowiedzi na pytania związane z prawem podatkowym. To jedna z form automatyzacji wybranych procesów, jednak nie należy jej mylić z takimi zjawiskami jak robodoradca czy automatyczna porada podatkowa – wyjaśnia Bartosz Niedźwiedzki, dyrektor ds. innowacji w EY Polska.
To jedna z form automatyzacji wybranych procesów, jednak nie należy jej mylić z takimi zjawiskami jak robodoradca czy automatyczna porada podatkowa.
Ekspert wyjaśnia, że polskie prawo podatkowe jest skomplikowane, o czym świadczą setki tysięcy interpretacji podatkowych oraz dziesiątki tysięcy wyroków wydanych w tym zakresie. Zaawansowane rozwiązania AI potrafią selekcjonować właściwe dokumenty źródłowe i wykorzystywać je w kontekście zadanego pytania podatkowego. Tego rodzaju narzędzia mogą być stworzone z myślą o indywidualnym odbiorcy, ale powinny działać na zamkniętym, nadzorowanym wewnętrznie zbiorze danych i bezpiecznej infrastrukturze. Samo narzędzie nie powinno zasilać wiedzą globalnie opracowywanych algorytmów. Takie podejście pozwala zminimalizować ryzyko halucynacji, w szczególności w zakresie wskazywanych źródeł, oraz zapewnia znacząco wyższy poziom bezpieczeństwa danych wrażliwych użytkowników.
– Obserwujemy, że na etapie wstępnego rozpoznania zagadnień podatkowych przedsiębiorstwa coraz częściej sięgają po ogólnodostępne narzędzia AI. W tym miejscu należy jednak pamiętać, że tego typu rozwiązania wciąż potrafią cytować nieistniejące źródła, a tym samym ryzyko błędnej interpretacji problemu pozostaje wysokie. Jeśli danego zagadnienia nie opisano dobrze w dostępnych źródłach, algorytmy i tak będą próbowały udzielić odpowiedzi na zadane pytanie. Pod znakiem zapytania pozostaje również bezpieczeństwo wrażliwych danych organizacji, udostępnianych w trakcie takich interakcji – dodaje Bartosz Niedźwiedzki.
Human in the loop, czyli przewaga nad AI
Nasz rozmówca podkreśla, że złotym środkiem pozostaje utrzymanie kontroli nad generatywną sztuczną inteligencją. Podejście „human-in-the-loop” stanowi w tym obszarze najbardziej efektywne rozwiązanie. To model kooperacji człowieka z AI, w którym człowiek podejmuje decyzje na wszystkich kluczowych etapach procesu, w tym w zakresie ostatecznej weryfikacji faktów oraz finalnej rekomendacji.
– Kluczowe jest ustawienie całego procesu w taki sposób, aby AI pełniła funkcję pomocniczą. W obszarze tak mocno zniuansowanym jak podatki, jeśli orzecznictwo nie pozwala na jednoznaczną odpowiedź, wykorzystywane narzędzie powinno jasno poinformować o tym użytkownika. Do doradcy należy wówczas dalsza analiza źródeł, ich ostateczna weryfikacja oraz interpretacja – wyjaśnia ekspert z EY.
Nasz rozmówca konkluduje, że AI wnosi istotną wartość w codziennej pracy doradcy podatkowego. Jednocześnie wyraźnie widać, że wartość ta rośnie proporcjonalnie do wiedzy i doświadczenia użytkownika.
– Trzeba dobrze rozumieć kontekst zadawanych pytań, posiadać kierunkową wiedzę w danym obszarze i nigdy nie działać automatycznie. Sztuczna inteligencja w rękach odpowiednio przeszkolonych specjalistów podatkowych może stanowić realną wartość dodaną. Jeśli jednak uznamy, że każdy może dziś weryfikować złożone zagadnienia podatkowe, bazując wyłącznie na ogólnodostępnym rozwiązaniu typu LLM, nietrudno o pomyłkę. Jeżeli przedsiębiorca nie będzie w stanie zorientować się, że dany chatbot generuje odpowiedzi w oparciu o nieistniejące interpretacje lub uwzględnia jedynie część możliwych punktów widzenia, skutki mogą być tak dotkliwe, jak duża jest waga problemu, który miano w ten sposób zostać rozwiązać – podsumowuje Bartosz Niedźwiedzki.
AI utrudni wejście na rynek pracy
Dotyczy to także początkujących doradców podatkowych. Niedawno pisaliśmy, że w niektórych branżach odnotowano spadek ofert pracy dla juniorów. Tam, gdzie spadku nie zauważono, z pewnością nastąpiła redefinicja roli „świeżaka”. Sztuczna inteligencja sprawiła bowiem, że powtarzalne i proste czynności – np. w księgowości – stały się zastępowalne przez AI.
Jak wyjaśnia Tomasz Jankowski, podobny proces zachodzi w zawodach doradczych, gdzie – obok wiedzy merytorycznej – na znaczeniu zyskują kompetencje cyfrowe.
– Jeśli chodzi o skutki stosowania narzędzi generatywnej AI w branży doradztwa podatkowego, warto zwrócić uwagę na jeszcze jeden aspekt. Podobnie jak w innych zawodach prawniczych, także w podatkach obserwujemy spadek liczby ofert pracy dla osób dopiero rozpoczynających karierę zawodową. Do tej pory zajmowały się one podstawowymi zadaniami, takimi jak przeprowadzanie researchu, przygotowanie ofert czy pisanie prostych komentarzy. Dziś te role w wielu organizacjach przejmuje AI. Jeśli trend ten się utrzyma, w praktyce może to doprowadzić do zawężenia grona osób świadczących tego typu usługi – choć w nowej, wspieranej przez AI rzeczywistości będą one zapewne wykonywane znacznie efektywniej – podsumowuje ekspert.
Główne wnioski
- Modele podatkowe oparte na AI nie zastąpią doradztwa podatkowego. Ich rola ogranicza się do reasearchu i tu – jak mówią eksperci – nie powinno być mowy o „poradzie”. Każde wykorzystanie sztucznej inteligencji powinna zwieńczać weryfikacja ze strony człowieka, najlepiej specjalisty.
- AI, choć sprawnie przebiera w interpretacjach podatkowych, może popełniać błędy, czy np. powołać się na nieistniejące źródło. Nie ma tu mowy o etyce czy tajemnicy zawodowej. Znajomość kontekstu, wyczucie, empatia, wiedza i doświadczenie niezmiennie pozostaną atrybutami specjalistów, w tym doradców podatkowych.
- Sztuczna inteligencja zmieniła rynek doradztwa podatkowego. Wykorzystuje się ją w zakresie researchu, co jest jednym z początkowych etapów doradztwa. Automatyzacja tego procesu sprawia, że taka umiejętność jest już w pełni „zastępowalna”, co może stanowić barierę na rynku pracy. Początkujący doradcy powinni wyposażyć się zatem w umiejętności cyfrowe.





