Ochrona dzieci przed pornografią a „technologiczna puszka Pandory”. UE szuka złotego środka w sprawie kontroli czatów
– Pod pretekstem walki z przestępczością likwiduje się fundamentalne prawo do tajemnicy korespondencji, to wstęp do masowej inwigilacji – tak politycy m.in. Konfederacji opisują unijne regulacje dotyczące ochrony dzieci przed nielegalnymi treściami w sieci. Jednym z pomysłów jest tzw. kontrola czatów i automatyczne zgłaszanie podejrzanych materiałów. Cel? Ochrona najmłodszych przed treściami pornograficznymi. Eksperci nie mają wątpliwości, że jest to wartość nadrzędna. Pytanie tylko, w jakim stopniu jesteśmy w stanie poświęcić własną prywatność, by osiągnąć ten cel. Wyjaśniamy, na czym miałaby polegać tzw. kontrola czatów.
Z tego artykułu dowiesz się…
- Na czym dokładnie miałaby polegać kontrola czatów i jak wygląda to z punktu widzenia prawa oraz technologii.
- Ilu najmłodszych internautów ma dostęp do treści pornograficznych, czym jest niegodziwe traktowanie dzieci w internecie i z jakimi zjawiskami mierzą się polscy nastolatkowie.
- Czy polski rząd ma pomysł na znalezienie złotego środka w kwestii kontroli czatów.
Zabezpieczenia na najwyższym poziomie, ustawienia prywatności ograniczone tak, by dziecko mogło kontaktować się wyłącznie z osobami, które zna, limity czasowe korzystania z aplikacji i blokada dodawania do grup przez obcych użytkowników.
Nasza czytelniczka zrobiła wszystko, by zapewnić swojemu 10-letniemu synowi bezpieczny dostęp do WhatsAppa – tylko po to, by mógł utrzymywać kontakt z kolegami z klasy. Sama, jak przyznaje, regularnie monitorowała także treść rozmów. To jednak nie wystarczyło.
Chłopak otrzymał zaproszenie do grupy o znanej jego rówieśnikom nazwie „brainrot”. To slangowe określenie na treści, które nie mają większego sensu – abstrakcyjne, absurdalne, a jednocześnie „atrakcyjne” dla młodego pokolenia internautów. Syn naszej czytelniczki został dodany do grupy przez kolegę. Następnie – niemal automatycznie – na czacie zaczęły pojawiać się inne grupy o podobnych nazwach, z ogromną liczbą użytkowników. Efekt? Telefon nieustannie wysyłał powiadomienia, a wśród lawiny wiadomości znalazły się także zdjęcia stworzone przez AI, które śmiało można uznać za pornografię.
Rodzice zgłosili nielegalne treści dostawcy czatu i usunęli konwersacje z telefonu dziecka. Po zgłoszeniu grupy – jak wynika z regulaminu aplikacji – WhatsApp otrzymuje maksymalnie pięć ostatnich wiadomości. Na tej podstawie ocenia ewentualne nadużycia. Przy licznej grupie i wysypie pojedynczych „emotek” w osobnych wiadomościach taka „kontrola” ma bardzo ograniczoną skuteczność.
To jedna z wielu historii, kiedy nieletni styka się z pornografią – i to mimo najlepszej wiedzy oraz starań rodziców, by go przed tym zabezpieczyć. Tymczasem sprawa tzw. kontroli czatów wisi w powietrzu. Politycy na szczeblu unijnym od lat nie mogą wypracować kompromisu w sprawie ostatecznego kształtu przepisów, które mają zapobiec wykorzystywaniu seksualnemu dzieci.
Warto wiedzieć
Cyberprzemoc seksualna a doświadczenia nastolatków
Co czwarty nastolatek (25,8 proc.) otrzymał propozycję przesłania swojego zdjęcia lub filmu o charakterze seksualnym – nagiego lub półnagiego.
13,6 proc. nastolatków przyznało, że wysłało do innych osób własne zdjęcie lub nagranie o charakterze seksualnym (nagie lub półnagie).
Wskazane przez nastolatki trzy najbardziej dotkliwe doświadczenia to: otrzymywanie niechcianych materiałów lub propozycji o charakterze seksualnym (26,8 proc.), mowa nienawiści ze względu na płeć (23,1 proc.) oraz cyberprześladowanie (20,4 proc.).
W dalszej kolejności jako najbardziej dotkliwe wskazywano: rozpowszechnianie zdjęć lub filmów bez zgody (15,2 proc.), molestowanie i nękanie seksualne w internecie (9,4 proc.) oraz wirtualną przemoc seksualną (5,1 proc.).
Dzieci narażone na pornografię jak nigdy wcześniej
Rozporządzenie CSAM (ang. Child Sexual Abuse Material – materiał przedstawiający seksualne wykorzystanie dzieci), czyli rozporządzenie Parlamentu Europejskiego ustanawiające przepisy mające na celu zapobieganie niegodziwemu traktowaniu dzieci w celach seksualnych i jego zwalczanie, powstało w 2022 r. Od tamtej pory trwają próby zharmonizowania przepisów – i wszystko wskazuje na to, że prace te szybko się nie zakończą. Sprzeciw wielu krajów unijnych, w tym Polski czy Holandii, sprawił, że w grę wchodziłoby dobrowolne skanowanie czatów przez big techy. W praktyce tzw. kontrola czatów objęłaby wszystkie serwisy umożliwiające przesyłanie zdjęć, filmów czy linków.
Przepisy nie zapewniają skutecznej ochrony przed kontaktami, manipulacją czy nakłanianiem do działań o charakterze seksualnym w środowisku cyfrowym. Reakcje firm technologicznych są niewystarczające i bardzo nierówne.
– Unia Europejska staje dziś przed narastającym problemem przestępstw związanych z seksualnym wykorzystywaniem dzieci w internecie. A przecież przepisy chroniące najmłodszych obowiązują od lat. Niestety, nie zapewniają one skutecznej ochrony przed kontaktami, manipulacją czy nakłanianiem do działań o charakterze seksualnym w środowisku cyfrowym. Reakcje firm technologicznych są niewystarczające i bardzo nierówne – wyjaśnia Aleksandra Załęcka z kancelarii KBiW Kurpiejewski, Budzewski i Wspólnicy.
Nowe przepisy mają chronić dzieci przed seksualnym wykorzystywaniem w sieci oraz przed rozpowszechnianiem materiałów przedstawiających takie czyny. Podczas gdy politycy od lat nie mogą dojść do porozumienia w sprawie ram prawnych, skala tego zjawiska w internecie rośnie.
– Dziś wiele z tych treści nadal krąży po internecie, w tym w komunikatorach. Ich identyfikacja i usuwanie często zależą wyłącznie od dobrej woli poszczególnych platform. Proponowane regulacje mają umożliwić służbom szybsze i skuteczniejsze wykrywanie oraz eliminowanie takich materiałów, zanim dotrą do dzieci lub zostaną szeroko udostępnione – wyjaśnia nasza rozmówczyni.
Warto wiedzieć
Najmłodsi najczęściej korzystają z czatów
Z danych za ostatni kwartał 2024 r. wynika, że z komunikatorów korzysta 90,6 proc. młodzieży obecnej w internecie, co przekłada się na 1,35 mln osób. Średni dzienny czas poświęcany na rozmowy w sieci wynosi 40 minut.
W przypadku dzieci w wieku 7–14 lat z komunikatorów skorzystało 2,53 mln użytkowników.
Najmłodsze grupy wiekowe internautów – 7–14 lat oraz 15–18 lat – używają komunikatorów częściej niż przeciętni internauci. Korzysta z nich dziewięciu na dziesięciu użytkowników w każdym z tych przedziałów wiekowych. Na nawiązywanie i podtrzymywanie relacji średnio dziennie poświęcają 40 minut, czyli 10 minut więcej niż grupa 7–75 lat.
„Stop chat control”, czyli o co toczy się spór?
„Polska broni prywatności użytkowników internetu i przeciwstawia się masowemu skanowaniu prywatnej korespondencji. Jednocześnie opowiada się za wprowadzeniem w Unii Europejskiej środków umożliwiających skuteczne przeciwdziałanie materiałom przedstawiającym seksualne wykorzystywanie dzieci (CSAM). Ministerstwo Cyfryzacji odpowiada na liczne apele, które trafiły do resortu w ramach akcji »Stop Chat Control«” – czytamy w komunikacie resortu cyfryzacji.
O co tak naprawdę chodzi w projektowanych przepisach i czy faktycznie każdy, kto korzysta z aplikacji takich jak WhatsApp, TikTok, Messenger, Facebook, Instagram, X, YouTube czy Signal, miałby być inwigilowany?
Aleksandra Załęcka wskazuje, że na szali kładziemy dwie wartości. Po pierwsze – wobec narastającego problemu przestępstw związanych z wykorzystaniem seksualnym dzieci w internecie – ich bezpieczeństwo w sieci. Po drugie – prawo do prywatności, w tym prywatności korespondencji.
– Obecny kierunek prac w UE nie przewiduje masowego skanowania prywatnych rozmów ani łamania szyfrowania komunikatorów. Polska oraz inne państwa – np. Holandia – skutecznie sprzeciwiały się pomysłom, które prowadziłyby do obowiązkowego monitorowania całej korespondencji, również w usługach szyfrowanych end-to-end. Aktualne propozycje zakładają jedynie dobrowolne wykrywanie nielegalnych treści przez platformy, bez naruszania treści wiadomości i bez ingerencji w szyfrowanie – wyjaśnia ekspertka.
Aktualne propozycje zakładają jedynie dobrowolne wykrywanie nielegalnych treści przez platformy, bez naruszania treści wiadomości i bez ingerencji w szyfrowanie.
Nasza rozmówczyni dodaje, że nawet dobrowolne wdrożenie takich mechanizmów może w konsekwencji mieć efekt zbliżony do „masowego nadzoru”. By lepiej zrozumieć tę materię, wyjaśnijmy, czym w praktyce jest szyfrowanie komunikatorów. Na czym – z technicznego punktu widzenia – miałoby polegać tzw. skanowanie czatów?
„W praktyce to koniec szyfrowania komunikatorów”
Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa i wiceprezes firmy WithSecure, mówi o technicznych aspektach tzw. kontroli czatów. Niektóre komunikatory, takie jak Signal, WhatsApp czy Viber, słyną z szyfrowania end-to-end. Jest to metoda zabezpieczenia rozmów, która sprawia, że tylko nadawca wiadomości i jej odbiorca mogą ją odczytać. Treść rozmowy jest niedostępna dla osób trzecich, w tym samych dostawców usług.
– Najwięcej kontrowersji budzi fakt, że nowe prawo wiązałoby się z zaprzeczeniem logiki szyfrowania end-to-end. Szyfrowanie zaczyna się na telefonie lub innym urządzeniu nadawcy, a kończy na urządzeniu odbiorcy. W przypadku aplikacji takich jak Signal czy WhatsApp nikt poza uczestnikami czatu nie ma dostępu do treści rozmów. Nie da się wdrożyć analizy algorytmicznej ani haszowania danych tak, by nie ingerować w zaszyfrowane informacje – wyjaśnia nasz rozmówca.
Leszek Tasiemski, pytany o metody „wychwytywania” przez dostawców czatów treści związanych m.in. z pedofilią, mówi właśnie o haszowaniu i algorytmach bazujących na analizie AI. Nasz rozmówca wyjaśnia, że dzięki tzw. haszom można dopasować konkretne frazy lub hasła do danego wzorca. Tak działają m.in. systemy zabezpieczające pocztę przed spamem. Hasz przybiera formę ciągu cyfr i jest (celowo) trudny do „odtworzenia”, czyli odczytania jego znaczenia. Taki model skanowania treści – w celu identyfikacji „podejrzanych” rozmów – nie musi oznaczać ryzyka ujawnienia całej konwersacji. Innym sposobem jest analiza algorytmiczna.
– Opcji jest kilka, ale nie ma takiej, która nie niosłaby zagrożeń z punktu widzenia technologii. Może to być nakładka na system operacyjny telefonu, która będzie wyłapywać to, co wpisujemy na czacie. Tam również działają algorytmy: wiadomości użytkowników nie są przeglądane przez ludzi. Możliwe też, że taką funkcjonalność dodadzą do swoich aplikacji sami dostawcy usług, tacy jak Signal Foundation czy Meta – wyjaśnia ekspert.
„Technologiczna puszka Pandory”
Eksperci są zgodni, że kontroli czatów towarzyszą uzasadnione przesłanki, bo ochrona dzieci jest bezsprzecznie dobrem nadrzędnym. Zdaniem naszego rozmówcy, otwieramy jednak tym samym „techniczną puszkę Pandory”.
Prędzej czy później ktoś znajdzie sposób, by wykorzystać te mechanizmy w niepożądany sposób. Mówimy o tzw. back door, bo wprowadzamy tylne drzwi, które naruszają architekturę bezpieczeństwa czatów. Chcąc chronić dzieci, otwieramy furtkę dla znacznie szerszego zagrożenia bezpiecznej komunikacji.
– Prędzej czy później ktoś znajdzie sposób, by wykorzystać te mechanizmy w niepożądany sposób. Mówimy o tzw. back door, bo wprowadzamy tylne drzwi, które naruszają architekturę bezpieczeństwa czatów. Chcąc chronić dzieci, otwieramy furtkę dla znacznie szerszego zagrożenia bezpiecznej komunikacji. Stwarzamy sobie potencjalnie duży problem. Po to szyfrujemy end-to-end, by prywatność była zachowana. Jeśli mamy pewność, że system „przeczesze” nasze wiadomości wyłącznie pod kątem CSAM, nie mamy się czego obawiać. Skoro jednak mamy tę „nogę w drzwiach”, cyberprzestępcy mogą tę furtkę również wykorzystać. Tu pojawiają się zagrożenia związane z kradzieżą tożsamości itd. Osłabiamy cały model bezpieczeństwa – wyjaśnia Leszek Tasiemski.
Nasz rozmówca wskazuje, że przestępcy będą dążyć do takiej „profesjonalizacji”, by omijać algorytmy. Istnieje także zagrożenie, że same algorytmy mogą być celowo „zatruwane”. Jak wyjaśnia ekspert, chodzi o manipulowanie ich działaniem tak, by nie alarmowały o treściach pedofilskich, lecz np. o rozmowach opozycji politycznych. Przestępcy prawdopodobnie opracują też modele komunikacji, które będą próbowały unikać automatycznego wykrywania treści.
– Mamy swój dom i tylko my mamy do niego klucze. Nagle wchodzi przepis, który każe nam dzielić się kluczem z dozorcą, który obiecuje, że nikomu go nie udostępni. Tyle że nie wiemy, kto jeszcze będzie miał do niego dostęp. Naruszamy zasadę, że sami jesteśmy właścicielami klucza do własnego domu. W przypadku kontroli czatów pojawia się założenie, że istnieje uniwersalny „klucz” – i ufamy, że nikt go nie ukradnie – podsumowuje Leszek Tasiemski.
Jak obecnie przepisy chronią dzieci?
Prawniczka Karolina Praszek-Gołębiewska z Kancelarii Bezpieczeństwa wyjaśnia, że obecnie każdy kraj członkowski ma własne regulacje wewnętrzne, a UE dąży do ich harmonizacji. Na mocy obowiązujących już przepisów dostawcy niektórych czatów są zobowiązani do ujawniania ich treści.
W grę wchodzi m.in. Kodeks karny, który penalizuje zarówno dopuszczanie się innej czynności seksualnej z małoletnim (poniżej 15. roku życia), jak i udostępnianie mu treści pedofilskich lub pornograficznych. Właściciele stron internetowych, na mocy ustawy o przeciwdziałaniu przemocy wobec dzieci, mają również obowiązek reagowania na treści o podobnym charakterze. Co więcej, ustawa ta ma zostać zaostrzona.
Warto wiedzieć
Social media od 13. roku życia? Ponad milion młodszych dzieci ma konto
Ponad 1,6 mln dzieci w wieku 7–12 lat aktywnie korzysta z szeroko zdefiniowanej listy serwisów społecznościowych. To ponad dwie trzecie całej populacji dzieci 7–12 w Polsce.
Gdy pominiemy w tym zestawieniu YouTube, który jest dozwolony (pod nadzorem rodzica) także poniżej 13. roku życia, zasięg tak rozumianych serwisów społecznościowych spada do 1,4 mln – to wciąż ponad połowa populacji dzieci w tym wieku.
W trzecim, jeszcze węższym ujęciu, możemy pominąć komunikatory ze względu na ich specyficzny charakter i ograniczyć analizę do TikToka, Facebooka i Instagrama. Dane pokazują, że przynajmniej z jednego z tych trzech serwisów aktywnie korzysta ponad 900 tys. użytkowników – blisko 40 proc. całej populacji dzieci w wieku 7–12 lat.
21 listopada Sejm przyjął nowelizację wdrażającą w Polsce unijny Akt o usługach cyfrowych (DSA). Projekt wprowadza krajową procedurę wydawania nakazów blokowania treści dotyczących m.in. wykorzystywania seksualnego małoletnich. Egzekwowanie przepisów będzie należeć m.in. do UKE – Urzędu Komunikacji Elektronicznej, UOKiK – Urzędu Ochrony Konkurencji i Konsumentów, oraz KRRiT – Krajowej Rady Radiofonii i Telewizji.
– Nowe przepisy to realne wzmocnienie głosu użytkowników internetu. To również możliwość sprawdzenia, czy algorytmy nie promują treści nielegalnych lub nieodpowiednich dla dzieci. To, co jest przestępstwem w realu, powinno być też przestępstwem w internecie – powiedział wiceminister cyfryzacji Dariusz Standerski.
Zabieganiu przestępczości w sieci służyć ma także ustawa o przeciwdziałaniu zagrożeniom przestępczością na tle seksualnym i ochronie małoletnich. Pomóc może nawet RODO (rozporządzenie o ochronie danych osobowych) – w części ograniczającej dostęp małoletnich do sieci.
Część osób wskazuje, że takie działania mogą naruszać prawo do prywatności w sieci, jednak musimy pamiętać, że prawo do prywatności nie jest absolutne i w określonych sytuacjach może podlegać ograniczeniom.
– Każda strona internetowa musi działać zgodnie z obowiązującymi przepisami, a regulaminy platform powinny je odzwierciedlać. Pamiętajmy też, że wiele serwisów pozwala na zakładanie kont osobom, które ukończyły 13 lat. Tyle że w praktyce trudno zweryfikować rzeczywisty wiek użytkowników. Zgodnie z przepisami prawo zgłaszania treści związanych z seksualnym wykorzystywaniem dzieci (ang. child sexual abuse material, CSAM) będą mieli wszyscy użytkownicy platform internetowych. Część osób wskazuje, że takie działania mogą naruszać prawo do prywatności w sieci. Jednak musimy pamiętać, że prawo do prywatności nie jest absolutne i w określonych sytuacjach może podlegać ograniczeniom – wyjaśnia Karolina Praszek-Gołębiewska.
Co w przypadku szyfrowanych czatów?
Leszek Tasiemski dodaje, że służby potencjalnie mają prawo żądać od dostawców czatów danych w razie podejrzenia, że komunikacja jest wykorzystywana w nielegalnych celach. W przypadku czatów szyfrowanych end-to-end takie dane są jednak nie do zdobycia.
– Uzyskanie dowodów na wykorzystanie aplikacji takich jak WhatsApp lub Signal w nielegalnych celach bywa niemożliwe. Jeśli rozmówcy zniszczą telefon, po rozmowie nie zostanie żaden ślad. Dostawca może jedynie rozłożyć ręce, bo nie ma dostępu do treści takich wiadomości. Wiele oszustw (scamów) odbywa się dziś właśnie przy użyciu komunikatorów z szyfrowaniem end-to-end. Nie zostawiamy tam żadnych śladów. Nie da się też nałożyć filtrowania fałszywych wiadomości, poza skanowaniem w aplikacji przed zaszyfrowaniem – wyjaśnia ekspert.
Zaszyfrowane czaty to wciąż walka z wiatrakami. Resort cyfryzacji przypomina jednak, że w sieci nie jesteśmy całkowicie bezradni. Zgodnie z ustawą o krajowym systemie cyberbezpieczeństwa NASK-PIB został wskazany jako jeden z Zespołów Reagowania na Incydenty Komputerowe (tzw. CSIRT). Do jego zadań należy m.in. obsługa linii telefonicznej oraz serwisu internetowego. Tam można zgłaszać przypadki rozpowszechniania materiałów przedstawiających seksualne wykorzystanie dzieci w internecie. Od ubiegłego roku aplikacja mObywatel ma także funkcję zgłaszania nielegalnych treści w ramach usługi „Bezpiecznie w sieci”.
– Polskie prawo już działa. Unijne regulacje mają tę ochronę wzmacniać. Przepisy karne dotyczą wykorzystywania nieletnich i ich zdjęć. Nie będzie to rewolucyjna zmiana, ale kary zostaną zaostrzone. To tak jak w przypadku RODO: kiedyś każdy działał na podstawie przepisów krajowych, dziś są one ujednolicone. Wejście do UE oznaczało wspólny front działania. Jako użytkownicy musimy mieć z tyłu głowy, że wszystko, co napiszemy, nie pozostaje wyłącznie w sferze prywatnej. Technologia i sztuczna inteligencja idą do przodu, a prawo musi za tym rozwojem nadążyć – wyjaśnia Karolina Praszek-Gołębiewska.
„Popieramy cel, ale nie chcemy kontroli”
Kontrola czatów stała się także przedmiotem dyskusji w polskim Sejmie. Poseł Witold Tumanowicz z Konfederacji zwrócił się do przedstawicieli rządu z pytaniem o bezpieczeństwo komunikacji w sieci. Powołał się na art. 49 Konstytucji, który zapewnia obywatelom wolność i ochronę tajemnicy komunikowania się.
– Pod pretekstem walki z przestępczością wprowadza się przepisy likwidujące fundamentalne prawo do tajemnicy korespondencji. Raz otwarta furtka do takiej kontroli to otwarcie drzwi do systemu masowego nadzoru, gdzie każdy będzie traktowany jak potencjalny przestępca. Takie algorytmy są podatne na błędy, a sens szyfrowanych komunikatorów znika, bo prywatność zostaje złamana u źródła. Chat Control to rozwiązanie nieproporcjonalne i uderzające we wszystkich obywateli. Przestępcy znajdą obejście, zaszyfrują wiadomość przed jej wysłaniem, a nowe prawo uderzy w zwykłych użytkowników – mówił parlamentarzysta.
Wiceminister w MSWiA Tomasz Szymański odparł, że dobro i bezpieczeństwo dzieci są wartością nadrzędną.
– Na tej kwestii powinniśmy się skupiać. Znalezienie kompromisu nie jest łatwe. Jednak Polska konsekwentnie od początku sprzeciwia się rozwiązaniom, które mogą ingerować w prawo do prywatności w sieci. Musimy znaleźć równowagę między bezpieczeństwem dzieci a prywatnością łączności elektronicznej. Polski rząd staje po stronie bezpieczeństwa najmłodszych. Popieramy cel rozporządzenia, ale naszym zadaniem jest wypracowanie takich rozwiązań, by ten balans został zachowany – wyjaśnił przedstawiciel rządu.
Biznes protestuje
Meredith Whittaker, prezeska Signal Foundation, w wydanym oświadczeniu zaprotestowała przeciwko unijnym propozycjom. Jak zaznaczyła, szyfrowanie end-to-end to technologia szczególnie potrzebna w dobie rosnącej inwigilacji ze strony państw i największych korporacji.
Zdaniem Whittaker rozszyfrowanie czatów otwiera furtkę dla hakerów. Uważa, że w niestabilnych politycznie czasach taka luka w cyberbezpieczeństwie to „fatalna propozycja”. Inne publiczne wypowiedzi prezeski wskazują również na możliwość wycofania przez dostawcę czatu swoich usług z Europy, jeśli regulacje UE wymuszą rezygnację z szyfrowania end-to-end.
Głosy sprzeciwu słychać także z polskiego podwórka. Warsaw Enterprise Institute pisze w oświadczeniu, że „pod płaszczykiem ochrony dzieci Bruksela tworzy infrastrukturę cenzury i nadzoru, która uderza w samo sedno demokratycznych wartości, czyli poszanowanie wolności słowa.” Zdaniem WEI to „inwigilacja na niespotykaną skalę”.
„System wprowadzony rzekomo do walki z pornografią dziecięcą może w przyszłości zostać rozszerzony na monitorowanie innych treści. Bruksela może uznać je za niepożądane – od krytyki politycznej po treści klasyfikowane jako dezinformacja. Wprowadzenie dostępu do zaszyfrowanych komunikatorów, aby umożliwić ich monitorowanie, otwiera drogę dla hakerów i obcych wywiadów. Raz stworzony mechanizm inwigilacji może zostać wykorzystany przez podmioty o wrogich zamiarach. To stawia pod znakiem zapytania bezpieczeństwo wrażliwych danych firmowych, medycznych czy prywatnych rozmów. Jest to szczególnie niepokojące w okresie nasilającej się wojny hybrydowej między państwami UE i NATO a Federacją Rosyjską” – czytamy.
Czy możemy „przy okazji” wyeliminować inne problemy?
Skanowanie czatów – w świetle powyższych argumentów – może nieść za sobą wiele istotnych zagrożeń. A co z korzyściami? Poza ustawowym celem, czyli identyfikacją treści związanych z CSAM, algorytmy mogłyby „przy okazji” wychwycić także inne nadużycia, w tym próby oszustw finansowych.
– Potencjalnie jest to możliwe. Jednak wciąż mamy do czynienia z trudnym dylematem. W mojej ocenie – choć nie ma twardych danych – zdecydowana większość użytkowników WhatsAppa korzysta z komunikatora do celów prywatnych, które nie mają nic wspólnego z nielegalną działalnością. Dyskusja sprowadza się do pytania, jak wiele jesteśmy w stanie poświęcić, by walczyć z tym zjawiskiem. To trochę jak z monitoringiem wizyjnym: poświęcamy część prywatności, by było bezpieczniej. Kontrola czatów może, choć nie musi, prowadzić do nadużyć – mówi Leszek Tasiemski.
Eksperci są zgodni: jedynie znalezienie złotego środka między bezpieczeństwem dzieci w sieci a zachowaniem prawa do prywatności może przynieść realne rozwiązanie. Problem polega jednak na tym, że od lat prowadzone na szczeblu unijnym poszukiwania tego kompromisu są nieskuteczne.
– Dlatego kluczowe pozostaje pytanie nie o to, „czy to już inwigilacja”, lecz o to, jakie zabezpieczenia i standardy przejrzystości zostaną wprowadzone, aby chronić prawa użytkowników, a jednocześnie skutecznie zwalczać treści związane z wykorzystywaniem dzieci. To właśnie ten balans będzie decydował o kształcie CSAM w Unii Europejskiej – podsumowuje Aleksandra Załęcka.
Główne wnioski
- Dyskusja o chat control sprowadza się do poszukiwania złotego środka między dwiema wartościami: bezpieczeństwem dzieci w sieci a ochroną prywatności użytkowników czatów. Unijne prace nad rozporządzeniem CSAM pokazują, że choć wszyscy zgadzają się co do celu nowych regulacji – ochrona dzieci przed wykorzystywaniem seksualnym jest priorytetem – to zaproponowane narzędzia cały czas pozostają kością niezgody.
- Kontrowersje budzą przede wszystkim aspekty technologiczne, a nie prawne. Wdrożenie kontroli w przypadku czatów szyfrowanych rodzi obawy związane z osłabieniem całego systemu bezpieczeństwa, a co za tym idzie – ryzykiem wycieków danych, kradzieży tożsamości, scamów itd.
- Politycy na szczeblu unijnym od lat szukają kompromisu, a tymczasem skala nadużyć w sieci rośnie. Badania wskazują, że już najmłodsi użytkownicy czatów (w wieku 7–14 lat) mają dostęp do treści pornograficznych.








