AI Act to dopiero początek. W Brukseli powstaje nowy kodeks dotyczący dobrych praktyk AI
Europejskie losy firm takich jak Mistral, OpenAI czy Nvidia zależą od ponad tysiąca ekspertów, organizacji pozarządowych i naukowców, którzy uczestniczą w bezprecedensowych konsultacjach publicznych online. Grupa ta opracowuje wytyczne „zamówione” przez Komisję Europejską, które mają pogłębić zakres działania Aktu o sztucznej inteligencji. Pierwsze kontrowersje już się pojawiły, a kolejna runda prac planowana jest na styczeń.
Z tego artykułu dowiesz się…
- Jakie kontrowersje wzbudził Akt o sztucznej inteligencji (AI Act) i dlaczego.
- Czym jest GPAI Code of Practice i jakie cele ma osiągnąć.
- Jakie obawy wyrażają eksperci oraz europosłowie wobec procesu tworzenia nowego kodeksu.
Akt o sztucznej inteligencji (AI Act) w przeciągu kilkunastu miesięcy awansował z wyśmiewanego w mediach dokumentu deliberującego nad „prawami robotów” do jednego z najgoręcej komentowanych rozporządzeń cyfrowych.
Podczas gdy sceptycy zgryźliwie wskazują, że rozległe regulacje dotyczące sztucznej inteligencji to jedyne europejskie osiągnięcia w tej dziedzinie, innym przyjęte prawo nie wystarcza. Choćby dlatego, że uzasadnia stosowanie tych narzędzi przez służby krajowe wobec obywateli czy też nie w pełni reguluje kwestie dotyczące praw autorskich.
Kodeks Dobrych Praktyk — nowe wyzwania dla Unii
Dyskusja nad przyszłością sztucznej inteligencji i wszelakimi możliwymi jej ryzykami przeniosła się do powołanej przez Komisję Europejską grupy GPAI Code of Practice (Kodeks Dobrych Praktyk ds. Sztucznej Inteligencji Ogólnego Przeznaczenia). Grupa ta zrzesza ekspertów, organizacje pozarządowe, branżowe i naukowców, tworząc grupy robocze zajmujące się m.in. przejrzystością algorytmów, prawami autorskimi, ryzykami systemowymi oraz wytycznymi technicznymi.
Kodeks Dobrych Praktyk uściśla zasady stosowania AI Act, dodając 21 zobowiązań, które sygnatariusze mieliby dobrowolnie włączyć do zarządzania systemami AI. Dotyczą one m.in. prowadzenia szczegółowej dokumentacji modeli, raportowania poważnych incydentów oraz ochrony sygnalistów.
Kontrowersje wokół procesu konsultacji
Do pracy nad wytycznymi zaproszono ponad 1 tys. osób, choć lista uczestników pozostaje tajemnicą. Wśród oficjalnie ogłoszonych liderów grup roboczych znaleźli się przedstawiciele z USA i Kanady, ale zabrakło osób z krajów, które dołączyły do UE po 2000 r. Choć w grupie eksperckiej pojawiają się przedstawiciele z Polski, Rumunii i Bułgarii, proces budzi wątpliwości co do przejrzystości oraz reprezentatywności.
Opublikowana przed świętami robocza wersja dokumentu liczy ponad 60 stron, a liczba komentarzy i poprawek rośnie. Eksperci wskazują na nadmiar hipotetycznych ryzyk o niskim prawdopodobieństwie, które mogą zagrażać wolności wypowiedzi, jednocześnie podkreślając potrzebę regulacji takich obszarów jak AI generująca treści pornograficzne czy algorytmy dyskryminacyjne.
Inni eksperci są mniej dyplomatyczni — Jan Czarnocki z grupy akademików Digital Constitutionalism w publicznych komentarzach określa proponowane wytyczne jako „szaleństwo”, które podniesie koszty narzędzi wykorzystujących sztuczną inteligencję dla Europejczyków oraz opóźni wdrażanie jej na terytorium UE. Grupa podkreśla również, że nie tylko firmy, ale także sama Komisja Europejska może nie być gotowa na egzekwowanie tak szczegółowych regulacji we wszystkich 27 krajach członkowskich, zwłaszcza że dopiero rozpoczęto rekrutację urzędników do nowo powołanego AI Office.
Powyższy nietypowy proces wzbudza niepokój wśród aktywnych europosłów. Przedstawiciele frakcji od Zielonych po chadeków skierowali oficjalne zapytania do Komisji o przejrzystość powołania szefów sekcji oraz wyrazili wątpliwości co do jakości dokumentu i zgodności z proponowanym terminarzem — ostateczna wersja wytycznych ma być gotowa w maju 2025 r. i zacząć obowiązywać trzy miesiące później. Jak donosi Euractiv.com, dwóch deputowanych pełniących funkcję szefów parlamentarnej grupy nadzorującej wprowadzenie AI Act — socjalista Brando Benifei oraz liberał Michael McNamara — zwróciło się do Komisji o wydłużenie prac nad projektem.
Prawo miękkie, ale wiążące
Skąd to poruszenie? Mimo że kodeks ma mieć charakter samoregulacyjny, w unijnym systemie prawo miękkie często staje się de facto wiążące. Podobne zbiory dobrych praktyk po wdrożeniu bywają kodyfikowane lub wykorzystywane jako podstawa do postępowań przeciwko konkretnym firmom. Na ten moment zainteresowanie pracami nad kodeksem wyraziły największe firmy, takie jak Mistral AI, OpenAI, Midjourney, a także duże platformy społecznościowe, banki czy producenci gier wideo.
Główne wnioski
- Akt o sztucznej inteligencji stał się kluczowym dokumentem regulującym AI, ale wzbudza kontrowersje ze względu na kwestie praw autorskich i możliwości stosowania AI przez służby wobec obywateli.
- Kodeks Dobrych Praktyk (GPAI Code of Practice) ma za zadanie uzupełnić AI Act o szczegółowe wytyczne dotyczące zarządzania systemami AI, w tym dokumentacji, bezpieczeństwa i raportowania incydentów.
- Proces tworzenia kodeksu budzi wątpliwości co do jego przejrzystości i wykonalności, a nadmierne skupienie na hipotetycznych ryzykach może opóźnić wdrażanie AI i podnieść koszty narzędzi dla Europejczyków.