Pilne
Sprawdź relację:
Dzieje się!
Biznes Społeczeństwo Technologia

Ty pytasz, chat AI odpowiada. Nikt nie płaci za tak użyte treści. „Rynek nie ma pomysłu, jak to uregulować” (WYWIAD)

Pora na przeformułowanie zasad, jak powinny być widziane prawa autorskie w świecie z narzędziami AI – mówi prof. Ksenia Kakareko z Uniwersytetu Warszawskiego, ekspertka z dziedziny prawa własności intelektualnej. Priorytetem staje się określenie, jak uzyskiwać zapłatę za towar, czyli utwór, gdy trafia do narzędzi AI. – Dziś interes finansowy autorów w obszarze sztucznej inteligencji jest uznawany minimalnie. Nie znam modeli, w których podpisane są umowy w zakresie rozliczania treści wykorzystanych przez chaty AI – mówi prof. Kakareko.

AI, prawo autorskie, Prof. Kakareko
Gdybym miała powiedzieć, co jest największym wrogiem twórców, to jest nim ich środowisko. Dają się skłócać korporacjom, zamiast budować wspólny front – mówi prof. Ksenia Kakareko z Wydziału Dziennikarstwa UW. Fot. materiały prywatne.

Z tego artykułu dowiesz się…

  1. Dlaczego dla każdego użytkownika internetu powinno mieć znaczenie to, czy autor muzyki, obrazu, wideo albo artykułu dostaje wynagrodzenie za udostępnione treści.
  2. Czy przepisy dostrzegają postęp technologiczny, a zwłaszcza działanie narzędzi AI.
  3. Jak powinna się kształtować współpraca między twórcami z internetu a wielkimi koncernami technologicznymi.

Katarzyna Mokrzycka, XYZ: Dlaczego statystycznego Kowalskiego, użytkownika technologii, w ogóle powinno obchodzić, jak regulowane są i będą prawa własności intelektualnej dla zasobów wykorzystywanych przez sztuczną inteligencję? Większość ludzi na świecie to nie są twórcy – nie pisarze, nie malarze, fotograficy czy dziennikarze. Nie wnoszą treści, po prostu je konsumują przez te wszystkie algorytmy, wyszukiwarki, boty i chaty AI.

Prof. Ksenia Kakareko, Uniwersytet Warszawski: Sposób, w jaki coś znalazło się w internecie czy w zasobach chatów AI, decyduje o jakości tych zasobów. Jeżeli dzisiaj zapłacimy temu, kto stworzył dane treści za to, że korzystamy z jego twórczości, to jest szansa, że w przyszłości stworzy coś jeszcze. Coś równie dla nas atrakcyjnego. Jeżeli wszyscy dookoła będą tylko zabierać, to twórców będzie to demotywowało, żeby robić coś dobrego.

Nie trzeba być artystą, żeby to zrozumieć – to sytuacja, w której na co dzień jest każdy z nas. Gdyby pracodawca nagle powiedział, że za naszą wykonaną w tym miesiącu pracę nie zapłaci, uznalibyśmy to za niesprawiedliwe. I nie chcielibyśmy już pracować.

Zmiana mentalności skłania do fair play w internecie

Na szczęście sytuacja, w której ktoś przychodzi i zabiera, bo może, jest zjawiskiem wygasającym. Młode pokolenie podchodzi do tematu korzystania z treści w internecie na zasadach fair play. Młodzi ludzie chcą wiedzieć, czy kawa, którą piją, była uprawiana z poszanowaniem ludzi i środowiska i chcą zapłacić twórcom tego, co słuchają czy oglądają. Starsze pokolenie internautów, które dobrze pamięta torrenty i chomiki, ściąganie z internetu filmów, muzyki i książek, też się zmieniło. Zaakceptowaliśmy platformy z filmami i muzyką, za które płacimy miesięczny abonament, często nawet o tym nie pamiętając.

Wszyscy użytkownicy, bez względu na wiek, chcą mieć pewność, że jakościowy kontent, który dostają dzięki temu, że płacą, nie skończy się. Na tym wyrosły takie platformy, jak Patronite i twórcy, którzy na tych platformach zbierają finansowanie, by działać.

Coraz więcej ludzi rozumie też, że nie ma darmowych treści w rozumieniu absolutnym, że jeżeli ja coś dostaję za darmo, to płacę czymś innym, najczęściej prywatnością. Muszę obejrzeć reklamę, udostępniam swoje dane albo pozwalam, żeby aplikacje mnie słuchały.

Czy AI nas okrada?

Czy świat kreowany przez sztuczną inteligencję i w ogóle budowanie i rozwijanie AI już z zasady, u samych podstaw jej istnienia, nie opiera się na zwykłej kradzieży?

Nie.

AI buduje się przecież na istniejących danych. Na wiedzy, którą ktoś stworzył, na twórczości, która należy do konkretnych ludzi. Czy w świecie AI możliwe jest więc realne respektowanie praw własności intelektualnej?

AI nie może kraść, bo AI nie ma świadomości. W prawie autorskim twórczość cały czas należy wyłącznie do człowieka, bo tylko człowiek ma świadomość tworzenia.

Sztuczna inteligencja jest algorytmem przetwarzającym, a zatem nie mówimy o kradzieży tylko o procesie matematyczno-mechanicznego przetworzenia. W procesach matematycznych nie chodzi tylko o uzyskanie dobrego wyniku, trzeba też opisać każde wykonane działanie. W AI jesteśmy w stanie wskazać, co dokładnie zostało użyte i przy pomocy jakich kroków doszliśmy do danego efektu.

Nie powinniśmy się bać wykorzystywania cudzej twórczości przez sztuczną inteligencję, bo, w odróżnieniu od problemów plagiatów u ludzi, w przypadku sztucznej inteligencji jesteśmy w stanie dokładnie wskazać w procesie matematycznym, co i w jakim stopniu zostało wykorzystane.

Czy sława jest ważniejsza niż zapłata?

Czyli ważne jest to, co małym drukiem, żeby pod odpowiedzią, której udziela chat GPT czy każdy inny, wyraźnie zostało powiedziane, dzięki którym konkretnym źródłom ją przygotowano. Ale czy to oznacza uhonorowanie praw autorskich? Przecież twórcy chatów AI nie płacą żadnemu dostawcy wiadomości za ich wykorzystanie przez chata w odpowiedzi na zadane pytanie.

W Europie największe spory w dyskusjach o prawie autorskim wciąż idą o samą twórczość, o uznanie autorstwa. Kwestia monetyzacji w systemie kontynentalnym (czyli nieanglosaskim) wciąż jest traktowana drugoplanowo.

W Stanach Zjednoczonych sama idea prawa autorskiego – w dużym uproszczeniu – przyjmuje, że utwór to jest towar wprowadzany na rynek. Specyficzny, bo ma autora, który ma coś do powiedzenia, ale zasadniczo to jest towar, czyli dotyczą go prawa o obrocie, handlu i monopolu.

W naszym systemie prawo do autorstwa i prawo do otrzymania za to zapłaty nie są połączone. Mamy prawa autorskie majątkowe i mamy tzw. rodzicielstwo nad utworem – prawa osobiste. Tak jak rodzic wobec swojego dziecka, tak autor decyduje o swoim utworze. Autor może sobie wywalczyć to, jak ten utwór będzie nazwany, zdecydować, w jakim kontekście będzie pokazywany, w jakich częściach. A wszystko to niezależnie od finansowej składowej. Owszem, finanse też mogą się pojawić jako zadośćuczynienie, ale generalnie w prawie zazwyczaj zadajemy pytanie, czy chodzi o pieniądze, czy o zasady.

W naszym systemie prawo do autorstwa i prawo do otrzymania za to zapłaty nie są połączone.

Bardzo często autorom chodzi nawet nie o to, żeby dostać złotówkę czy dwie za jakieś wykorzystanie utworu, tylko bardziej właśnie o uznawanie ich autorstwa. W tej sytuacji kwestia podpisania, że to są utwory zrobione na bazie tego i tego, byłoby pokojowym rozwiązaniem ze strony twórców AI.

Co może autor? Może się ucieszyć, że stworzył

Czy podpisując utwór znakiem copyright, można zablokować jego wykorzystanie?

Nie. W Polskim systemie znak copyright nie ma żadnego znaczenia, poza tym, że twórca poinformował świat, że to być może utwór i że być może do kogoś należy. Samo udowodnienie, że utwór jest utworem w polskim systemie prawnym, wywołuje procesy sądowe na wiele miesięcy.

Najbardziej skutecznym sposobem handlowania swoim utworem w sieci jest licencja Creative Commons albo inna licencja, która daje się odczytać w metadanych.

Poza sławą i uznaniem prędzej czy później pojawią się też zapewne kwestie finansowe. Z chatów do pracy korzystają i uczniowie, i studenci, i naukowcy, i badacze. Bardzo często kolejna, druga czy trzecia przerabiana wersja jakiegoś tematu już nie zawiera nawet tych odnośników, przypisów, pełnych źródeł. Jak sprawdzać to systemowo?

W naszym systemie prawnym autor w zasadzie nie musi nic, zwłaszcza nie musi ścigać za używanie jego twórczości. Może być nieświadomy swoich praw, nie musi spełnić żadnych formalnych wymogów. Nawet nie musi wiedzieć, że stworzył coś, co jest chronione. Ma to być chronione automatycznie, nawet jeżeli tego nie skończył. To użytkownik musi udowodnić, że ma prawo korzystać z danego utworu.

Wychować sobie odbiorców

Ale czy to nie oznacza w praktyce, że nikt nie ściga i nikt w związku z tym nie płaci za to, że AI uczy się na cudzej twórczości?

Rzeczywiście, internet, a zwłaszcza modele AI, próbują odwracać zasady. Korzystający z treści w ramach domniemania niewinności jest chroniony na tyle, że bardzo wiele prywatnych biznesów internetowych czy AI opiera się na tym, że bardziej opłaca im się korzystać z różnych treści bezumownie, nie płacąc nikomu za nic, niż negocjować umowy z twórcami. Mówią otwarcie: złapcie mnie za rękę na gorącym uczynku, a sąd niech zasądzi – po trzech, czterech, sześciu latach – i wtedy zapłacę. Jakoś uzgodnimy zadośćuczynienie, gdy już zostanę do tego przymuszony.

Po prostu modele dochodzenia naruszeń przez twórców są tak skomplikowane i nieprzyjazne, że duże firmy technologiczne, ale też na przykład agencje przygotowujące skróty prasowe nie starają się współpracować z twórcami, nie płacą, dopóki sąd ich do tego nie zmusi.

Brzmi to tak, jakby twórca był kompletnie na straconej pozycji. Nie jest przecież w stanie polować codziennie w internecie, sprawdzając, czy ktoś gdzieś nie skorzystał z kawałka jego wideo, piosenki albo tekstu.

Dokładnie tak to w tej chwili wygląda w większości przypadków, jeśli autorowi zależy, żeby to ścigać.

Odpowiedzią na to jest wychowanie sobie użytkownika, który chce kupić abonament, chce zapłacić za to, by móc oglądać, czytać czy słuchać. Ale gdyby jutro nagle wszyscy przestali płacić, to autor jest bezbronny.

Internet zakłada, że wszystkie strony są uczciwe. A nie są

Mamy domniemanie niewinności, także w internecie – czyli przyjmujemy, że wszyscy, którzy zaakceptowali regulamin danej strony, portalu, platformy, przestrzegają regulaminu. Także sam podmiot hostingujący, czyli właściciel np. You Tube albo X z jego narzędziem AI itp. Żeby wskazać, że jest inaczej, trzeba udowodnić, że to konkretne działanie, ten konkretny podmiot albo ten konkretny użytkownik w tym momencie wykorzystuje coś nielegalnie, np. niezgodnie z zasadami rozpowszechniania określonymi przez autora utworu.

Żeby pomóc twórcom, powinno wzrosnąć znaczenie organizacji zbiorowego zarządzania prawami autorskimi. Niestety, ustawodawca w nowelizacji z jesieni 2024 r. tego nie zagwarantował. Są w niej roszczenia informacyjne, ale nie spełniają realnych potrzeb.

Prawo nie zauważa sztucznej inteligencji

Czy w polskim prawie autorskim w ogóle pojawia się nazwa „sztuczna inteligencja”?  

Nie, mamy pojęcie trenowania text i data mining. Nowelizacja wskazuje, że wolno trenować legalnie pewne treści do działań naukowych.

Prawo autorskie w Europie nie idzie dziś w kierunku stwierdzenia, że AI jest to osobna działka, którą należy zauważyć i objąć przepisami. Unia zajmuje się problemem, gdy widzi w nim poważne zaplecze finansowe, społeczne, handlowe. Unia to jest przecież przede wszystkim organizacja gospodarcza. W AI Act nie chodzi o ideologię, chodzi przede wszystkim o pieniądze.

Co to znaczy?

Chodzi o pieniądze, bo Unia ma zabezpieczyć kwestie zapewniające stabilność obrotu. Tam, gdzie są duże pieniądze, tam pojawia się potrzeba kolejnych regulacji. Im więcej jest pieniędzy do wzięcia, tym więcej widzimy potencjału do naruszenia zasad – wtedy Unia wchodzi z kolejnymi regulacjami.

W AI Act nie chodzi o ideologię, chodzi przede wszystkim o pieniądze.

Nie chodzi zatem o ochronę twórców tylko o eliminację potencjalnych zagrożeń o konsekwencjach ponadnarodowych, takich jak zagrożenie bezpieczeństwa, w tym bezpieczeństwa danych, np. medycznych, ale też finansowych (bankowych), danych osobowych w związku z rozszerzaniem się biometrii itp.

Kto pisze prawo

Czy to znaczy, że AI Act jest napisany pod wielkie koncerny technologiczne?

Nie pod tylko w związku z ich funkcjonowaniem. Ustawodawca na poziomie unijnym przyjmuje, że bezpieczeństwo ludzi w związku z działaniem transnarodowych koncernów jest kwestią ważniejszą niż zabezpieczenie roszczeń twórców. Big-techy to psychopatyczne twory, które nigdy nie grały fair play, dlatego trzeba ich pilnować. 

W skali od 1 do 10 – w jakim stopniu w tej chwili są respektowane interesy autorów i prawa intelektualne w najróżniejszych materiałach danych wykorzystywanych przez AI? 

Znowu trzeba by wrócić do pytania, jaki jest interes twórcy. Sława czy pieniądze? Interes finansowy autorów w obszarze sztucznej inteligencji jest uznawany minimalnie.

Interes finansowy autorów w obszarze sztucznej inteligencji jest uznawany minimalnie.

Mimo że właściciele narzędzi AI za ich wersje premium biorą od użytkowników pieniądze.

Ale nie znam modeli, w których są podpisane umowy w zakresie rozliczania wykorzystanych treści.

Wydaje się, że rynek – tak właściciele AI, jak i sami twórcy treści – nie mają pomysłu jak to uregulować.

Trudno ochronić twarz i głos

Kilkanaście dni temu Duńczycy poinformowali, że parlament przygotowuje przełomową nowelizację prawa autorskiego. Da każdemu obywatelowi prawo własności do twarzy i głosu. Ma to skutkować natychmiastowym usuwaniem deepfaków. Czy to znaczy, że bez takiego prawa – bo w Polsce go nie mamy – każdy może dowolnie i bezkarnie wykorzystać czyjąś twarz i głos? Były już takie przypadki oszustw „na wnuczka”.

To zależy. Nasz wizerunek jest chroniony w kilku obszarach. Po pierwsze, w prawie autorskim – mamy prawo do wizerunku, chociaż są aż trzy wyjątki, kiedy wizerunek może być wykorzystywany.

Drugą rzeczą jest to, że nasz wizerunek, tak samo jak imię i nazwisko czy data urodzenia, jest od dawna daną osobową. Każdy obywatel ma nią prawo zarządzać o tyle, że w każdej chwili może wyrazić zgodę na wykorzystywanie lub ją cofnąć. Profesjonaliści muszą zaś uzasadnić, dlaczego, jak i kiedy będą te dane przetwarzać. Technicznie mamy więc ochronę, nie musimy niczego więcej robić.

W praktyce zgód udzielamy wszędzie i każdej aplikacji i już nawet nie kontrolujemy tego, gdzie, kto i kiedy taką zgodę od nas uzyskał. Nie wiemy też zwykle, w jaki sposób mielibyśmy zgodę cofnąć. Jeżeli wchodzę na imprezę, to zgodnie z jej regulaminem organizator dostaje ode mnie prawo do mojego wizerunku. Gdy wchodzę do sklepu, jest kamera, na co zgadzam się w regulaminie tego sklepu. Każda aplikacja w telefonie domaga się od nas dostępu do mikrofonu, zdjęć czy aparatu i często się zgadzamy. Większość osób nie czyta, kto i co z tym będzie później robił.

Głos to też jest wizerunek i mam prawo do tego, by go chronić i decydować, kiedy, gdzie i jak. Ale, znowu, na dziś to ja powinnam dbać o to, żeby ktoś mnie nie skrzywdził, a nie ten, kto wykorzystuje moje dane.

Życie po życiu już bez żadnej ochrony

Ale jak mam o to zadbać?

No właśnie, tu jest problem, bo nie możemy prewencyjnie zakazać nikomu niczego w zakresie domniemania moich wyłączności. Dopiero kradzież danych osobowych, czyli wizerunku czy głosu, można formalnie ścigać. Na szczęście portale hostingowe, czyli np. platformy społecznościowe – chociaż nie wszystkie – dość szybko odpowiadają na żądania zablokowania treści, gdy dostają zgłoszenie naruszenia danych osobowych. Potem jest dochodzenie, kto ma rację. Google działa w tym zakresie bardzo sprawnie, widać selekcję treści, zostały pousuwane rozmaite wrzutki, zdjęcia, zwłaszcza o znanych osobach. Mamy prawo do bycia zapomnianym. Ale już na Facebooku bywa różnie.

W kontekście prawa do bycia zapomnianym. Piotr Dąbkowski, założyciel ElevenLabs, wymyślił technologię, która „ożywiła” głos nieżyjącego już znanego fizyka Richarda Feynmana. Być może Richard Feynman by sobie nie życzył. Co na to powinno odpowiedzieć prawo? Czy możemy zastrzec swój głos na przyszłość, gdy już nas nie będzie?

Gdy człowiek nie żyje, obowiązują inne reguły. I głos, i wizerunek jest element godności człowieka. Chronimy je, bo mamy prawo do kształtowania tego, jak postrzegamy samych siebie i jak widzą nas inni.

Gdy umieramy, to nie jesteśmy w stanie powiedzieć, że przeszkadza mi coś w tym, jak postrzegają nas inni. Pamięć o zmarłym jest dobrem osobistym. Ale poza tym dane osobowe i inne dobra osobiste zmarłej osoby przestają być chronione. Stąd właśnie tyle przeróbek Freddiego Mercurego i innych nieżyjących piosenkarzy czy aktorów.

Przypomnę kazus z wykorzystaniem wykreowanego przez AI głosu Wisławy Szymborskiej w radiu w Krakowie. Radio szybko się z tego wycofało. To instytucja publiczna, która musi się liczyć nie tylko z opinią publiczną, z utratą wizerunku, ale też z rozliczenia działalności według kryterium legalności. Biznes zaś trzyma się zasady domniemania niewinności. Dlatego Polskie Radio się wycofa, a Facebook nie.

Dane osobowe i inne dobra osobiste zmarłej osoby przestają być chronione. Stąd tyle przeróbek Freddiego Mercurego.

Chat cię oszuka w pracy? Kara spada na ciebie

Czy w Polsce oczywiste są konsekwencje prawne używania narzędzi opartych o AI? Nie, tylko jeśli chodzi o nadużycie własności intelektualnej, lecz w ogóle, jeśli chodzi o skutki działań, w których wykorzystano AI? Według PwC, w Polsce 85 proc. pracowników używa AI w pracy, nawet jeśli to jest niezgodne z regulaminami wewnętrznymi. To oznacza, że pracodawca nawet nie wie, co mu grozi. W lipcu głośna była sprawa, gdy AI z firmy Replit bez zgody zleceniodawcy bezpowrotnie usunęła dane 1200 firm. Co więcej, próbowała "kłamać", próbując ukryć swoje działanie.

Problem odpowiedzialności za własne działania przy użyciu technologii jest dłuższy niż istnienie sztucznej inteligencji. Najróżniejsze wycieki informacyjne zdarzały się tylko dlatego, że człowiek nie dopilnował obowiązków. Zwykle nie do końca mając świadomość tego, jakie konsekwencje może mieć jego działanie lub zaniechanie działania. Polskie olewactwo, mówiąc brutalnie, w czasach sztucznej inteligencji, nie jest ani mniej, ani bardziej groźne.

To z kodeksu pracy i wewnętrznych regulaminów firm wynika, kto za co odpowiada na danym stanowisku. W historii, jak ta, będą padać pytania: czy osoba, która podjęła decyzję o dopuszczeniu AI do danych, miała świadomość, że może się z nimi coś stać, czy miała obowiązek taką świadomość mieć? Czy powinna przewidywać ryzyka? Temu służą korporacyjne procedury oceny ryzyka. Opisują, kto za co odpowiada, kto zatwierdza decyzje, ilustopniowa to powinna być decyzja, ile rzeczy powinniśmy przewidzieć, jakie mamy procedury naprawcze w razie jakiegoś kryzysu.

Procedury są. Nie należy tworzyć jakichś nowych rozwiązań dotyczących odpowiedzialności w przypadku pracy z narzędziami AI. Technicznie dla prawa nie ma znaczenia, czy ktoś coś zepsuje przy użyciu sztucznej inteligencji, czy z braku umiejętności personalnych.

Pracodawcom może rzeczywiście brakować świadomości co do skali wykorzystania tego narzędzia. Tu bardziej niż nowy przepis potrzebna jest zatem edukacja, żeby nie wierzyć we wszystko, co podaje na tacy AI. Wciąż nie ma dobrych mechanizmów weryfikowania pracy AI. Ludzie i ich sceptycyzm i krytycyzm to najlepsze filtry. Pod warunkiem, że zostaną uruchomione.

Prawo i życie – nie zawsze idą razem

Czy to znaczy, że w poszczególnych przepisach, dotyczących różnych sektorów życia prywatnego, publicznego, biznesowego nie należy w żaden sposób uznać istnienia i roli narzędzi opartych na AI? Nie trzeba ich nazywać je „po imieniu” w regulaminach firmowych, w prawie pracy albo w przepisach dotyczących podmiotów publicznych? Przyjmujemy po prostu, że to narzędzie, jak młotek, maszyna parowa albo wózek widłowy, mimo że ta technologia zmienia różne obszary znacznie bardziej i szybciej niż jakakolwiek technologia dotąd?

Problem z prawem jest taki, że ono zawsze będzie poza czasem i technologią. Pytanie, jak dalece chcielibyśmy teraz zacząć dyskusję nad regulacjami, które w życie weszłyby nie wcześniej niż za rok, dwa lata, kiedy problem może przestać być problemem, a w to miejsce pojawi się inny.

Nie jestem zwolennikiem kreowania prawa pod każde nowe rozwiązanie technologiczne. Prawnik zawsze sprawdza, czy możemy przepisy, które już mamy dostosować do nowej rzeczywistości technologicznej. Czy jesteśmy w stanie istniejącą konstrukcją prawną opisać coś, co jest po prostu inne technologicznie? Chodzi o istotę problemu i o to, czy przepis, który wymienia z imienia daną technologię, będzie bardziej skuteczny niż jakiś już istniejący. Załóżmy, że rozpatrujemy przypadek wygenerowania sztucznego obrazu, fejka, przez AI. Czy to już na tyle daleko odeszło na przykład od przetwarzania przez Photoshopa, czy innego przetwarzania technologicznego, że obecne prawo nie wystarcza? Moim zdaniem wystarcza i pomnażanie kolejnych przepisów nie wzmocni pozycji twórcy i nie zwiększy bezpieczeństwa użytkowników internetu.

Nie jestem zwolennikiem kreowania prawa pod każde nowe rozwiązanie technologiczne. Pomnażanie kolejnych przepisów nie wzmocni pozycji twórcy i nie zwiększy bezpieczeństwa użytkowników internetu.

Jeden front

W którą stronę w takim razie powinny iść regulacje dotyczące wykorzystywania AI? W tym te zabezpieczające prawa twórców. Czego konkretnie w prawie brakuje?

Prawo powinno zidentyfikować, gdzie my mamy problem, którego istniejące obecnie modele biznesowe (big-techów) nie rozwiążą w sposób społecznie akceptowany.

Największą bolączką jest to, że duże podmioty dyktują warunki autorom w sposób, który stawia ich w pozycji nie do negocjacji i nie do odrzucenia. Albo jesteś z nami na naszych warunkach, albo cię nie ma. Mamy zatem wyraźną nierówność podmiotów i tu powinniśmy dążyć do zmiany.

Środowiska twórców mówią: chcielibyśmy móc powiedzieć "nie" tak, żeby to nie kończyło dyskusji. Problem jednak w tym, że samo środowisko twórców też nie jest jednolite ani zgodne. Nie ma po tej stronie jednomyślności co do tego, jak to powinno się uregulować. A dopóki wszyscy twórcy nie sformułują, czego chcą, to ciężko powiedzieć, jak rozwiązać problem.

Nie ma po stronie twórców wspólnych postulatów?

Nie ma. Gdybym miała powiedzieć, co jest największym wrogiem twórców, to jest nim ich środowisko. Dają się skłócać korporacjom, zamiast budować wspólny front.

Różne grupy twórców i twórczości mają bardzo dużo wątpliwości i rozbieżnych życzeń. Tekst, obraz wideo, dźwięk – wszyscy widzą zupełnie inne interesy. Wspólnych postanowień jest bardzo mało i wracamy do tego, że należałoby mieć zgodę autora na to, żeby wykorzystywać jego treści. A "należałoby" oznacza problem, kto będzie to sprawdzał.

Prawa autorskie w nowym świecie

Jesteśmy zatem na etapie, kiedy trzeba przeformułować, jak właściwie powinny być widziane prawa autorskie w tym nowym świecie. Wydaje się, że w Europie także już odeszliśmy daleko od poziomu, kiedy autorowi zależy tylko na tym, żeby jego nazwisko w rubryce „autor” było poprawnie napisane. Autor chce już mieć prawo do procesu twórczego. Z drugiej strony twórcy jeszcze nie do końca są gotowi powiedzieć – formalnie, na poziomie prawa – że utwór to jest po prostu towar. I że twórczość to biznes, w którym należy wskazać, jak chce się handlować swoim towarem.

Trzeba też pamiętać jeszcze o czymś. Gdy mowa o nowych regulacjach dyskusja toczy się w kontekście dużych podmiotów, bo to duże podmioty nie chcą być w prawie. Ale ostatecznie zapis musi być ten sam dla wszystkich. A to, co może poskromić dużych, małym może utrudnić albo wręcz uniemożliwić ich działalność.

I utknęliśmy gdzieś pomiędzy uregulowaniem rynku a dobrą wolą biznesu.

Ksenia Kakareko, doktor habilitowana nauk prawnych, profesor Uniwersytetu Warszawskiego. Pracuje w Katedrze Prawa Mediów na Wydziale Dziennikarstwa UW. Wiceprezeska Polskiego Towarzystwa Naukowego Prawa Prasowego, ekspertka Centrum Cyfrowego. Specjalizuje się w prawie autorskim, prawie mediów i regulacjach dotyczących sztucznej inteligencji. Przez siedem lat do 2024 r. była członkiem zarządu organizacji zbiorowego zarządzania prawami autorskimi dziennikarzy i wydawców – SWiD Repropol.

Główne wnioski

  1. Prawa autorskie w dobie AI: Prof. Ksenia Kakareko podkreśla, że w świecie sztucznej inteligencji kluczowa staje się monetyzacja utworów, a nie tylko uznanie autorstwa. Brakuje modeli rozliczania treści wykorzystywanych przez AI, co stawia twórców w trudnej pozycji.
  2. Ochrona twórców i użytkowników: Prawo powinno chronić twórców przed nadużyciami big-techów, ale regulacje muszą uwzględniać równowagę – zbyt restrykcyjne przepisy mogą zaszkodzić mniejszym podmiotom. Ważna jest edukacja użytkowników i promowanie fair play w korzystaniu z treści.
  3. Wyzwania regulacyjne: Środowisko twórców jest podzielone, co utrudnia formułowanie wspólnych postulatów. Prawo nie nadąża za technologią AI, a unijne regulacje, jak AI Act, priorytetowo traktują stabilność obrotu i bezpieczeństwo danych, a nie prawa twórców.