Kategorie artykułu: Społeczeństwo Świat Technologia

Indie regulują platformy społecznościowe. Delhi na kursie kolizyjnym z big techami?

Indie wprowadzają jedne z najbardziej restrykcyjnych na świecie przepisów dotyczących moderacji treści w mediach społecznościowych. W kraju, w którym dostęp do internetu ma niemal miliard osób, zmiany te wpłyną na setki milionów użytkowników. Obrońcy wolności słowa ostrzegają jednak, że nowe regulacje mogą prowadzić do rozszerzenia rządowej kontroli nad przekazem i ograniczenia swobody wypowiedzi.

Komponenty elektroniczne z czipem z mapą Indii
Od 20 lutego platformy społecznościowe w Indiach ma obowiązywać trzygodzinny limit na usuwanie treści. Firmy technologiczne będą też musiały lepiej oznaczać materiały wygenerowane przez AI. Fot. Getty Images

Z tego artykułu dowiesz się…

  1. Jakie nowe wymagania rząd w Delhi nakłada na platformy społecznościowe i dlaczego budzą one kontrowersje.
  2. jak problem dezinformacji w indyjskim internecie wpływa na decyzje regulacyjne władz.
  3. Jak indyjskie przepisy wpisują się w globalny trend zaostrzania nadzoru nad big techami?
Loading the Elevenlabs Text to Speech AudioNative Player...

Rząd Indii chce, aby platformy społecznościowe błyskawicznie usuwały treści, które władze uznają za niezgodne z prawem. Chodzi o skrócenie czasu reakcji z obecnych 36 do zaledwie trzech godzin. Właściciele serwisów będą również zobowiązani do skuteczniejszego identyfikowania i oznaczania materiałów wytworzonych przez AI.

Trzygodzinny limit – krótszy niż w jakimkolwiek innym kraju – ma zacząć obowiązywać 20 lutego. Aktywiści ostrzegają, że nowe przepisy mogą prowadzić do autocenzury platform oraz nadużyć ze strony władz. Z drugiej strony Indie, będące drugim co do wielkości rynkiem mediów społecznościowych na świecie, mierzą się z poważnym problemem dezinformacji i fałszywych treści.

Temat ten z pewnością będzie przedmiotem rozmów podczas zaplanowanego na przyszły tydzień India-AI Impact Summit. Globalny szczyt poświęcony sztucznej inteligencji ma odbyć się w Delhi. W programie przewidziano dyskusje na temat odpowiedzialnego rozwoju AI oraz jej regulacji. Udział zapowiedzieli przedstawiciele największych koncernów technologicznych, w tym Meta, Google, Microsoft oraz OpenAI.

Większa odpowiedzialność platform

Zgodnie z rozporządzeniem, które ma wejść w życie 20 lutego, platformy społecznościowe będą zobowiązane do usuwania treści wskazanych przez władze jako niezgodne z prawem w ciągu trzech godzin od otrzymania powiadomienia. Oznacza to radykalne skrócenie dotychczasowego limitu wynoszącego 36 godzin.

Nowe przepisy obejmują materiały przedstawiające nagość, treści pornograficzne oraz te, które mogą „zagrażać bezpieczeństwu narodowemu”. Aby sprostać tym wymaganiom, platformy będą musiały zapewnić całodobowy monitoring i obsługę zgłoszeń.

Regulacje nakładają również obowiązek wdrożenia systemów identyfikacji i oznaczania treści generowanych przez AI. Użytkownicy powinni mieć jasną informację, że oglądane materiały zostały stworzone przez sztuczną inteligencję. W założeniu ma to ograniczyć skalę deepfake’ów oraz manipulowanych nagrań audio i wideo.

Zdaniem władz kontrola treści jest potrzebna do walki z dezinformacją i mową nienawiści. Krytycy ostrzegają przed ograniczaniem wolności słowa i krytyki politycznej.

Według dziennika „The Hindu” nowe przepisy wpisują się w szerszą strategię rządu, której celem jest zwiększenie odpowiedzialności platform za publikowane treści. Ministerstwo Elektroniki i Technologii Informacyjnych argumentuje, że szybsze usuwanie szkodliwych materiałów jest niezbędne w walce z dezinformacją, mową nienawiści oraz nawoływaniem do przemocy.

Cenzorskie uprawnienia

Aktywiści zajmujący się swobodami cyfrowymi podkreślają jednak, że tak krótki termin reakcji może oznaczać automatyczne wykonywanie poleceń władz bez realnej weryfikacji zgłoszonych treści.

Delhijska Internet Freedom Foundation wskazuje, że regulacje przyznają rządowi narzędzia umożliwiające błyskawiczną cenzurę. W oświadczeniu organizacja ostrzega, że przepisy mogą być wykorzystywane do tłumienia krytyki politycznej oraz ograniczania wolności słowa, zwłaszcza w okresach przedwyborczych.

Komentatorzy zwracają również uwagę na brak przejrzystych mechanizmów odwoławczych i niezależnej kontroli decyzji o usunięciu treści.

Spięcie z big techami?

Pierwsze reakcje branży sugerują, że platformy mogą mieć trudności z dostosowaniem się do nowych wymogów. Przedstawiciele sektora technologicznego wskazują, że trzygodzinny termin jest w praktyce bardzo trudny do spełnienia, biorąc pod uwagę skalę działania w jednym z najludniejszych krajów świata.

Sprawa może doprowadzić do napięć z amerykańskimi gigantami technologicznymi, takimi jak Meta, Alphabet oraz X. Żaden z tych koncernów nie skomentował dotąd decyzji władz. W przeszłości Meta stosowała się do części zaleceń rządu w Delhi, natomiast X co najmniej dwukrotnie kierował formalne sprzeciwy wobec indyjskich decyzji, oskarżając władze o arbitralne cenzurowanie treści.

Amerykańscy dyplomaci określili przepisy dotyczące kontroli treści jako „pozataryfowe bariery handlowe” dla gigantów z USA.

W 2021 r. ówczesny Twitter sprzeciwiał się nakazom usunięcia treści, powołując się na wolność słowa. Spór dotyczył trwających wówczas antyrządowych protestów rolników. Ostatecznie firma ustąpiła po groźbach aresztowania pracowników indyjskiego oddziału oraz zablokowania aplikacji w kraju.

Do podobnych napięć doszło w relacjach z Metą w związku z przepisami nakazującymi śledzenie pochodzenia wiadomości w komunikatorze WhatsApp. Spółka uznała te regulacje za naruszające zasadę szyfrowania end-to-end.

Rząd Stanów Zjednoczonych wielokrotnie wyrażał zaniepokojenie rozwiązaniami, które mogą negatywnie wpływać na działalność amerykańskich firm technologicznych w Indiach. W grudniu amerykańscy dyplomaci określili przepisy dotyczące kontroli treści jako „pozataryfowe bariery handlowe” dla gigantów z USA.

Pytanie, czy mechanizmy zwiększające rządową kontrolę nad treściami online doprowadzą do kolejnych napięć na linii Waszyngton – Delhi.

Warto wiedzieć

Regulacja platform w Europie

W ramach europejskiego Aktu o Usługach Cyfrowych (DSA), obowiązującego od 2024 r., największe platformy internetowe mają obowiązek usuwać nielegalne treści „niezwłocznie” po otrzymaniu zgłoszenia. Nie wprowadzono jednak sztywnego limitu czasowego. Unia Europejska kładzie nacisk na przejrzystość moderacji, dostępne dla użytkowników mechanizmy odwoławcze oraz niezależny nadzór.

Działające w UE tzw. „bardzo duże platformy” muszą ujawniać zasady funkcjonowania swoich algorytmów rekomendacyjnych. Użytkownicy mają prawo wiedzieć, dlaczego widzą daną reklamę i kto za nią zapłacił. Zakazane są reklamy targetowane oparte na profilowaniu wrażliwych danych oraz kierowane do dzieci.

Za naruszenie przepisów Komisja Europejska może nakładać na platformy kary finansowe sięgające 6 proc. globalnych obrotów firmy.

xyz

Miliard internautów i masowa dezinformacja

Dostęp do internetu ma niemal miliard mieszkańców i mieszkanek Indii. Ze smartfonów oraz mediów społecznościowych korzystają setki milionów osób, a liczba użytkowników stale rośnie. Dla właściciela Facebooka, Instagrama oraz komunikatora WhatsApp, Indie pozostają największym rynkiem na świecie.

Wśród najpopularniejszych aplikacji dominują YouTube, WhatsApp, Facebook oraz Instagram – każda z nich ma w Indiach setki milionów użytkowników. Po zablokowaniu w 2020 r. TikToka silną pozycję zdobyły także lokalne platformy Moj, Josh i ShareChat.

Indyjskie media społecznościowe są jednak masowo wykorzystywane do rozpowszechniania dezinformacji. Według raportu Reuters Institute for the Study of Journalism z 2024 r. 54 proc. indyjskich internautów zetknęło się z fałszywymi lub wprowadzającymi w błąd treściami w ciągu ostatnich 12 miesięcy. Jednocześnie kraj zajmuje czołowe miejsce pod względem liczby materiałów weryfikowanych przez niezależne organizacje fact-checkingowe.

Głównym kanałem rozpowszechniania zmanipulowanych informacji pozostaje WhatsApp.

Dostęp do internetu ma prawie miliard Indusów. Większość styka się z dezinformacją.

Z raportu organizacji Article 14, zrzeszającej prawników, badaczy i dziennikarzy, wynika, że co najmniej 60 proc. treści uznanych za „fake news” ma charakter polityczny. Znaczna część z nich jest celowo rozpowszechniana w okresach przedwyborczych. Szczególnie problematyczne są zmanipulowane nagrania wideo i audio z udziałem polityków oraz celebrytów. Fałszywe informacje dotyczące konfliktów międzyreligijnych nierzadko prowadzą do realnej przemocy.

Media społecznościowe nie dla najmłodszych?

W najludniejszym kraju świata trwa także debata nad wprowadzeniem ograniczeń wiekowych dla użytkowników platform społecznościowych. Inspiracją są regulacje przyjęte w Australii. Od grudnia 2025 r. obowiązuje tam zakaz korzystania z mediów społecznościowych przez osoby poniżej 16. roku życia. Indyjskie propozycje zakładają wprowadzenie zakazu dla dzieci poniżej 13. roku życia oraz wymogu zgody rodziców w przypadku nieletnich, którzy nie ukończyli 18 lat.

The Hindu” wskazuje na rosnące obawy dotyczące wpływu aplikacji takich jak Instagram na zdrowie psychiczne młodzieży. Badania pokazują, że indyjskie nastolatki korzystają z mediów społecznościowych średnio 4–5 godzin dziennie. Skutkiem są problemy ze snem, spadek wyników w nauce, wzrost zjawiska cyberprzemocy oraz zaburzeń lękowych.

Zwolennicy restrykcji podkreślają konieczność ochrony dzieci przed szkodliwymi treściami, uzależnieniem i „manipulacją algorytmiczną”. Przeciwnicy argumentują, że całkowity zakaz byłby trudny do wyegzekwowania i mógłby ograniczyć młodym ludziom dostęp do wartościowych treści edukacyjnych. W ich ocenie skuteczniejsze byłoby wzmocnienie edukacji cyfrowej oraz zwiększenie odpowiedzialności platform.

Główne wnioski

  1. Indie wprowadzają restrykcyjne przepisy dotyczące moderacji treści online, w tym trzygodzinny limit na usuwanie materiałów wskazanych przez władze. Nowe regulacje budzą obawy o wolność słowa, ryzyko autocenzury platform oraz możliwość nadużyć przy tłumieniu krytyki politycznej. Mniej kontrowersji wywołuje obowiązek wdrożenia systemów identyfikacji i oznaczania treści generowanych przez AI.
  2. Rząd w Delhi argumentuje, że szybsze usuwanie szkodliwych materiałów jest niezbędne w walce z dezinformacją, mową nienawiści i nawoływaniem do przemocy. Indie – drugi co do wielkości rynek mediów społecznościowych na świecie – mierzą się z masową skalą fałszywych treści.
  3. Krytycy zwracają uwagę, że trzygodzinny termin może być niewykonalny w praktyce, a system nie przewiduje wystarczających mechanizmów odwoławczych i kontroli. Proponują bardziej kompleksowe podejście obejmujące edukację cyfrową, wsparcie dla fact-checkingu oraz współpracę z platformami. Spór może doprowadzić do napięć z amerykańskimi gigantami technologicznymi oraz rządem USA, który określa nowe regulacje jako „pozataryfowe bariery handlowe”.