Dobrze się stało, iż prezydent Karol Nawrocki 9 stycznia br. zawetował cenzorską Ustawę z dnia 18 grudnia 2025 r. o zmianie ustawy o świadczeniu usług drogą elektroniczną oraz niektórych innych ustaw, de facto wdrażającą przepisy unijnego Aktu o usługach cyfrowych (DSA) w naszym kraju. Jednak to nie koniec batalii o wolność słowa, zważywszy na stałą presję wywieraną przez KE i zapowiadane dalsze działania rządu Donalda Tuska.
Sam prezydent zaapelował o przygotowanie poprawionej regulacji w ciągu dwóch najbliższych miesięcy.
Już podjęto decyzje i rozpoczęto szereg inicjatyw finansowanych z naszych podatków na rozwijanie „Kompleksu Przemysłowego Cenzury”, który w USA jest demontowany, a w Europie rozbudowywany.
Krytyka weta
Weto prezydenta Nawrockiego do ustawy wdrażającej DSA nie spodobało się lewicowym środowiskom od lat zaangażowanym w cenzurowanie wypowiedzi Polaków. Jedną z takich organizacji korzystających z unijnych i krajowych grantów jest Demagog, czyli stowarzyszenie założone w 2014 r. w celu walki z mis-, mal- i dezinformacją w sieci.
Stowarzyszenie na swoim portalu skrytykowało decyzję prezydenta. Unijne rozporządzenie – chociaż nie ma przepisów ułatwiających jego wdrożenie w sposób bezpośredni w naszym kraju –i tak obowiązuje we wszystkich państwach UE. Krajowa ustawa rozszerzała jednak zakres działania unijnej regulacji.
Wśród zarzutów Demagoga nietrafione są argumenty, jakoby prezydent niepotrzebnie kwestionował pojęcie „nielegalnych treści”, które miałyby być usuwane w trybie natychmiastowym z sieci, sugerując, iż chodzi jedynie o te treści, które kryminalizuje kodeks karny, jak np. „oszustwa, podszywanie się pod osobę, treści pedofilskie, piractwo czy nawoływanie do nienawiści na tle narodowym, etnicznym, rasowym lub religijnym”. Prezydent zakwestionował „reglamentowanie” wolności wyrażania swoich poglądów, które zapewnia art. 54 Konstytucji RP.
„Jak wyjaśnialiśmy w jednej z naszych analiz – zaznacza Demagog – przepisy, których wejście w życie zablokował prezydent, dotyczyły jedynie ściśle określonych treści, łamiących prawo. Obawy niektórych polityków i działaczy społecznych, iż nowe prawo będzie ograniczać możliwość krytyki rządu, Unii Europejskiej czy działań na rzecz równouprawnienia osób LGBT+ albo wyrażania poparcia dla wartości konserwatywnych, nie mają podstaw w tej ustawie”.
I to jest właśnie dezinformacja (pojęcie, którego bardzo nie lubię używać z powodu braku jego precyzji, ale które powszechnie się przyjęło i na potrzeby obecnego artykułu często przywołuję). W analizie „Misinformacja, dezinformacja i malinformacja. Jak budowany jest system globalnej cenzury” szerzej piszę o celach regulacji DSA, jakie były intencje unijnych prawodawców, jak szeroka jest definicja „nielegalnych treści”, i jakie konkretnie stworzono w tym rozporządzeniu trzy niebezpieczne mechanizmy prawne, na co zwróciła uwagę grupa holenderskich prawników.
Rozporządzenie DSA sformułowało pojęcie „nielegalnych treści” (art. 3), włączając wszelkie przypadki treści już sankcjonowanych, w tym dezinformacji zdefiniowanej w przepisach krajowych, a także „mowę nienawiści” (uwzględnia rozbieżne podejścia krajowe, chociaż eurokraci deklarowali, iż chcą harmonizować przepisy w całej UE).
A więc od władz konkretnego kraju zależy to, co będzie „nielegalne”. Wystarczy, iż w Sejmie znajdzie się dana formacja polityczna albo koalicja, która uzyska większość i będzie mieć „swojego” prezydenta, by przeforsować stosowną ustawę na przykład o zwalczaniu dezinformacji, „mowy nienawiści” albo zagranicznej ingerencji w media społecznościowe, wówczas katalog „treści nielegalnych” drastycznie poszerzy się i pozwoli rządzącym na daleko idącą ingerencję oraz manipulację opinią publiczną, egzekwując zakazy, które w momencie przyjmowania DSA, choćby nie były „nielegalnymi treściami”.
Zgodnie z art. 3h Aktu o usługach cyfrowych, „nielegalne treści” to „informacje, które same w sobie lub przez odniesienie do działania, w tym sprzedaży produktów lub świadczenia usług, nie są zgodne z prawem Unii lub z prawem jakiegokolwiek państwa członkowskiego, które jest zgodne z prawem Unii, niezależnie od konkretnego przedmiotu lub charakteru tego prawa”.
To niezwykle szeroka i nieprecyzyjna definicja, która – jak zauważyła grupa holenderskich uczonych (Fathaigh, Helberger, Appelman, „The perils of legally defining disinfomation”) „nie nadaje się do funkcjonowania jako kategoria prawna”. To definicja polityczna, umożliwiająca państwom członkowskim szeroką interpretację zjawiska dezinformacji, „mowy nienawiści”, „bezpieczeństwa” w sieci itd.
Dodajmy, iż DSA zobowiązuje „bardzo duże platformy internetowe” i „bardzo duże wyszukiwarki internetowe” do dokonania corocznej „oceny ryzyk systemowych” (art. 34) wynikających z funkcjonowania ich usług i powiązanych systemów algorytmicznych.
Katalog ryzyk jest obszerny i obejmuje np. „wystąpienie faktycznych lub przewidywalnych negatywnych skutków dla dyskursu obywatelskiego i procesów wyborczych”. Duże platformy i wyszukiwarki internetowe muszą dostosować swoje systemy algorytmicznego moderowania treści i reklamy do tych ryzyk.
W art. 34 jest z kolei mowa o „celowej manipulacji ich usługą, w tym w wyniku nieautentycznego korzystania z usługi lub zautomatyzowanego wykorzystywania usługi, a także akceptowanie i potencjalnie szybkie i szerokie rozpowszechnianie nielegalnych treści i informacji, które są niezgodne z ich warunkami korzystania z usług”.
Wskazano ponadto na potrzebę uwzględniania specyfiki danego kraju, w tym regulacji uznających pewne treści za „nielegalne”. Ocena ryzyk podlega audytowi, dlatego też dokumentacja dotycząca oceny ryzyk musi być przechowywana przez 3 lata. W każdej chwili w tym okresie KE albo koordynator ds. usług cyfrowych może się zwrócić o jej udostępnienie.
Wprowadzono także mechanizm reagowania kryzysowego (art. 36). Na wniosek KE bardzo duża platforma lub wyszukiwarka internetowa mogą zostać zobowiązane do podjęcia określonych działań, by zapobiec wystąpieniu poważnego kryzysu, który ma miejsce wtedy, gdy „nadzwyczajne okoliczności prowadzą do zagrożenia bezpieczeństwa publicznego lub zdrowia publicznego w Unii lub w jej znacznej części” (art.36.2). Komisja może też wydawać wytyczne, zalecenia i sugerować najlepsze praktyki.
W motywie 83 DSA w związku z oceną ryzyka systemowego przez duże platformy i wyszukiwarki zwrócono uwagę na ryzyko systemowe obejmujące „skoordynowane kampanie dezinformacyjne dotyczące zdrowia publicznego”, a w motywie 84 podkreślono znaczenie ryzyka rozpowszechniania, co prawda treści legalnych, ale „wprowadzających w błąd lub zwodniczych treści, w tym dezinformacji”.
Organy unijne kładą nacisk na samoregulację i skrupulatne egzekwowanie przyjętych „dobrowolnie” zobowiązań przez platformy internetowe. Dzięki temu unikają oskarżeń o próby bezpośredniego narzucenia cenzury czy też ograniczenia debaty publicznej. W sytuacji przyjęcia kodeksu postępowania w sprawie dezinformacji, kodeksu w sprawie zwalczania „mowy nienawiści” przez platformy, KE zyskuje instrument do egzekwowania bardziej rygorystycznych zasad.
Trzy niebezpieczne mechanizmy prawne DSA
Już na etapie projektowania rozporządzenia DSA wprowadzono kilka przepisów mających najważniejsze znaczenie dla zmiany unijnej polityki dezinformacyjnej.
Pierwszy dotyczy art. 9, który wymaga od platform internetowych podjęcia „bez zbędnej zwłoki” działań przeciwko „nielegalnym treściom” na polecenie „odpowiednich krajowych organów sądowych lub administracyjnych”.
Stworzono tym samym mechanizm prawny, który pozwala przedstawicielom władzy żądać usuwania „bez zbędnej zwłoki” treści uznanych za „nielegalne”. Jak wskazano wyżej, definicja „treści nielegalnych” jest szeroka i w przypadku konkretnych państw może stale ewoluować.
Drugi przepis to art. 16 dotyczący mechanizmu zgłaszania przez indywidualne osoby treści, które uważają one za „nielegalne”. Po zgłoszeniu dostawca usług hostingowych może podjąć decyzję o zablokowaniu ich, działając „z należytą starannością” – bez konieczności przeprowadzenia „szczegółowej analizy prawnej”. Dostawca usług hostingowych nie tylko musi zarejestrować zgłoszenie, podjąć określone działania, ale także poinformować zgłaszającego o podjętych czynnościach.
Trzeci przepis to art. 22 dotyczący zaufanych podmiotów sygnalizujących, który wprowadza „priorytetowe traktowanie zgłoszeń dokonywanych przez zaufane podmioty sygnalizujące, działające w wyznaczonych dziedzinach, w których dysponują wiedzą ekspercką (…), a także rozpatrywania takich zgłoszeń oraz podejmowania decyzji w sprawie bez zbędnej zwłoki”. Ta norma prawna pozwala na priorytetowe traktowanie np. naukowców wybranych uczelni i wybrane organizacje fact-checkingowe, które zajmują się sprawdzaniem wiarygodności informacji. Tego typu organizacje – jak wykazano w śledztwach w kongresie, w tym przeciwko „Kompleksowi Przemysłowemu Cenzury” w USA – uwikłane są w projekty tworzenia systemu globalnej cenzury (sprawy przed amerykańskim SN i dochodzenia komisji sądowniczej Izby Reprezentantów).
Krajowa regulacja
Zawetowana ustawa wdrażająca DSA na polskim rynku przyznawała ogromne uprawnienia prezesowi Urzędu Komunikacji Elektronicznej (UKE), a także Krajowej Radzie Radiofonii i Telewizji (KRRiT) – w zakresie nadzorowania platform wideo oraz Prezesowi Urzędu Ochrony Konkurencji i Konsumentów (UOKiK) – w zakresie nadzoru platform handlowych oraz innych spraw dotyczących ochrony konsumentów.
Rząd określił także katalog „przestępstw internetowych” (to przestępstwo popełnione z wykorzystaniem internetu). W pierwotnej wersji projektu ustawy nie przewidziano mechanizmu kontroli sądowej – jak dopuszcza choćby DSA – a jedynie administracyjnej, obnażając prawdziwe intencje rządzącej ekipy. Urzędnicy mogliby usuwać treści w błyskawicznym tempie, dając poszkodowanej osobie zaledwie dwa dni na przedstawienie swojego stanowiska. Nakaz usunięcia danej treści wydawałby prezes UKE oraz przewodniczący KRRiT. Od decyzji nie przysługiwałoby odwołanie. Autor chcąc się bronić, musiałby wytoczyć powództwo w sądzie, ponosząc z tym związane opłaty i wszelkie niedogodności.
Urzędnicy mieliby zaledwie 2 dni na reakcję na zgłoszenie żądania dot. usunięcia treści, gdy zrobiłby to policjant lub prokurator i 7 dni, gdy zgłoszenia dokonałby usługobiorca, „zaufany podmiot sygnalizujący” lub 21 dni w przypadku spraw szczególnie skomplikowanych.
Prezes UKE miałby być koordynatorem ds. usług cyfrowych w sprawach związanych z DSA na poziomie krajowym i europejskim, a wraz z doradcą Krajowej Rady do Spraw Usług Cyfrowych miałby m.in. rozpatrywać skargi składane na platformy oraz prowadzić postępowania administracyjne związane z unijnym rozporządzeniem. Ustawa miała wejść w życie zaledwie w ciągu 30 dni od jej ogłoszenia.
W trakcie prac w Sejmie wprowadzono pewne zmiany, w tym taką, iż poszkodowanej osobie miałoby przysługiwać prawo wniesienia sprzeciwu do sądu (art. 11q ust. 2–3). W ciągu 14 dni poszkodowany miałby dowodzić przed sądem, iż nie dopuścił się złamania prawa.
Prezydent słusznie zauważył, iż przyznanie tak ogromnych kompetencji, chociażby Prezesowi Urzędu Komunikacji Elektronicznej, jako „urzędnikowi podległemu rządowi”, który decydowałby o tym, co jest nielegalną treścią, przypomina system cenzury opisany przez George’a Orwella w książce „Rok 1984”.
Zawetowana ustawa przewidywała nadawanie statusu
„zaufanego podmiotu sygnalizującego”, który miałby być priorytetowo traktowany przez platformy, a który zgłaszałby „nielegalne treści” i korzystał z pieniędzy podatników, by ograniczać ich wolność do zapoznawania się chociażby z opiniami i argumentami innych osób na kontrowersyjne tematy.
Demagog ubolewa, iż w „codziennej pracy natrafia na liczne przykłady” „nielegalnych materiałów”, które „mimo ich działań wciąż są obecne w serwisach społecznościowych”. Dlatego „kolejne mechanizmy zgłoszeń miałyby służyć bardziej skutecznemu zwalczaniu nielegalnych materiałów”.
Z powodu weta ubolewa także Prezydium Rady Polskich Mediów, podkreślając, iż utrudni ono „walkę z dezinformacją w internecie i to w czasie, gdy niemal każdy dzień przynosi zza wschodniej granicy kolejne kłamstwa i półprawdy”, a także „utrudni walkę z innymi skrajnie szkodliwymi treściami rozpowszechnianymi w sieci, jak m.in. nawoływaniem do samobójstwa czy pochwalaniem pedofilii”. Weto prezydenta ma – w opinii tego podmiotu – być „zaprzepaszczoną szansą na poprawę bezpieczeństwa Polaków”.
Prezydent zaś słusznie przypomniał, iż „ograniczanie wolności słowa jest niekonstytucyjne”, a „wykorzystywanie do tego interesu najmłodszych jest niemoralne”.
Rząd w 2026 ma skupić się na walce z dezinformacją
Zarówno minister cyfryzacji Krzysztof Gawkowski, jak i premier Donald Trump zapowiedzieli, iż nie spoczną w walce z dezinformacją i przez cały czas będą podejmować działania, by ograniczyć Polakom wolność słowa. Czyli wolność wyrażania swoich poglądów, obejmujących oceny, opinie, przypuszczenia, informowanie o faktach, ale także wolność pozyskiwania i rozpowszechniania informacji – bo to w istocie oznacza wolność słowa – a to pod pretekstem walki z pedofilią, dezinformacją rosyjską i w celu zapewnienia bezpieczeństwa w sieci, cokolwiek to tak naprawdę znaczy.
Jeszcze w grudniu ub. roku minister Gawkowski zapowiedział, iż priorytetem jego resortu w 2026 r. będzie walka z dezinformacją, na co mają trafić ogromne środki z budżetu państwa. Zaplanowano między innymi kampanię edukacyjną oraz współpracę zespołów międzyresortowych, które mają opracować krajowe ramy walki z dezinformacją. Jak można przypuszczać – na podstawie doświadczeń brytyjskich, niemieckich i przede wszystkim amerykańskich za czasów administracji Biden-Harris – de facto chodzi o budowanie „Kompleksu Przemysłowego Cenzury”. Zjawisko to opisała i udokumentowała amerykańska wpływowa komisja sądownictwa w swoich kilku już raportach śródokresowych ze śledztwa przeciwko „Kompleksowi Przemysłowemu Cenzury”, obejmującemu wiele agencji rządowych, ośrodków uniwersyteckich i sieci organizacji fact-checkingowych opracowujących narzędzia i nowe technologie, które mogą cenzurować przekazy na dużą skalę. W USA – pod pozorem zajęcia się krytycznymi zagrożeniami dla systemów komunikacyjnych i „zwalczania fałszywych informacji/dezinformacji” – ośrodki uniwersyteckie opracowały zaawansowane narzędzia cenzury z użyciem „sztucznej inteligencji”. Przykładowo program MIT „efektywnych interwencji” celował w konserwatystów, mieszkańców wsi i weteranów wojennych oraz ich rodziny. Wszyscy oni mieli być „bardziej podatni na kampanie dezinformacyjne”, ponieważ mieli większe zaufanie do Konstytucji i Biblii, i preferowali sami dochodzić do prawdy, analizując treści, odnosząc je do „pierwotnych źródeł”, zamiast ufać „profesjonalnemu konsensusowi”.
Komisja sądownictwa napiętnowała m.in. Obserwatorium Internetowe Uniwersytetu Stanforda, Uniwersytet Waszyngtoński, laboratorium badań kryminalistycznych w Atlantic Council, firmę Graphika oraz sieci organizacji fact-checkingowych i szereg agencji federalnych, a także Big Techy, które zmierzały do wyrugowania z przestrzeni publicznej niektórych tematów mających zagrażać demokracji, „integralności wyborów”, „integralności informacji” i procesowi stanowienia polityki.
W zamyśle ministra Gawkowskiego, dużą rolę w walce z dezinformacją ma odgrywać Naukowa i Akademicka Sieć Komputerowa (NASK), która zasłynęła w ub. roku z akcji dezinformującej w czasie kampanii prezydenckiej w 2025 r., za co została zganiona choćby przez Organizację Bezpieczeństwa i Współpracy w Europie (OBWE).
Gawkowski zapowiedział także, iż resort cyfryzacji skoncentruje się na rozwoju sztucznej inteligencji (AI) w Polsce. Mają być ustanowione ramy prawny dla AI i jak można przypuszczać, jednym z zastosowań AI może być egzekwowanie zautomatyzowanej cenzury.
Z doniesień medialnych wynika także, iż resort Gawkowskiego pracuje nad nowym projektem ustawy wdrażającej DSA i najbardziej zależy mu na zapewnieniu potężnego finansowania dla „zaufanych podmiotów sygnalizujących”, czyli sieci postępowych organizacji fact-checkingowych.
Po wecie prezydenta, KE zagroziła pozwem. Rzecznik Komisji Europejskiej Thomas Regnier poinformował, iż eurokraci przyglądają się sytuacji w naszym kraju i „zachęcił” Polskę do jak najszybszego przyjęcia brakujących przepisów oraz do wzmocnienia uprawnień krajowych urzędów do spraw usług cyfrowych.
KE i tak latem ub. roku wszczęła sprawę przeciwko Polsce, która podobnie jak Czechy, Cypr, Hiszpania i Portugalia, nie wywiązała się z obowiązku wyznaczenia koordynatora DSA. Sprawa została skierowana do Trybunału Sprawiedliwości UE pod pretekstem uchybienia zobowiązaniom państwa członkowskiego.
Dlaczego DSA jest tak ważna dla unijnych organów?
Unijne rozporządzenie jest wykorzystywane do wtrącania się w wewnętrzne wybory w danych krajach. To ten akt wykorzystano w celu unieważnienia wyborów prezydenckich w Rumunii w 2024 r. i ścigania opozycji politycznej. Podobnie do DSA sięga się w Niemczech w celu zwalczania wpływów AfD. Co najważniejsze przepisy te służą do ograniczania dostępu do pewnych informacji nie tylko obywatelom UE, ale także obywatelom w innych krajach na całym świecie m.in. za sprawą orzeczeń TSUE.
Z tego powodu amerykańscy prawodawcy wypowiedzieli wojnę Aktowi o usługach cyfrowych. Dodatkowym argumentem dla nich jest nadmierne obciążanie Big Techów wymogami dotyczącymi moderacji treści i żądanie ułatwienia dostępu do algorytmów (przekazania know how np. zaufanym podmiotom sygnalizującym).
Waszyngton zdecydował się nałożyć sankcje na byłego unijnego komisarza i kilku aktywistów ograniczających wolność słowa w Europie. 23 grudnia 2025 r. sekretarz stanu Marco Rubio wydał postanowienie na mocy ustawy o imigracji i obywatelstwie (INA), zakazując wjazdu do Stanów Zjednoczonych pięciu Europejczykom związanym z działalnością moderowania treści i nakazując ich deportację, jeżeli zostaną w USA znalezieni.
Te pięć osób, które sekretarz stanu prowokacyjnie określił jako część „Globalnego Kompleksu Przemysłowego Cenzury”, prowadzącego „zorganizowane działania mające na celu zmuszenie amerykańskich platform do cenzurowania, demonetyzacji i tłumienia amerykańskich poglądów, którym się sprzeciwiają”, winnych także „zaawansowanej represji cenzuralnej” to: były francuski komisarz i wiceprzewodniczący KE, Thierry Breton, twórca unijnej ustawy o usługach cyfrowych (DSA), który podczas kampanii prezydenckiej w USA w 2024 roku zażądał od szefa platformy X, Elona Muska, aby nie udostępniał Europejczykom wywiadu przeprowadzonego z ubiegającym się wówczas o drugą kadencję Donaldem Trumpem. Zagroził choćby podjęciem przez KE „działań odwetowych” przeciwko X na mocy DSA. Breton niedługo potem zrezygnował z funkcji w Komisji, podobno pod presją przewodniczącej Ursuli von der Leyen.
Pozostałe osoby to: aktywiści europejskich organizacji pozarządowych (NGO) zajmujących się cenzurą internetu, czyli Josephine Ballon i Anna-Lena von Hodenberg z niemieckiej organizacji HateAid, Clare Melford z brytyjskiej grupy Global Disinformation Index, która zajmuje się wywieraniem wpływu na platformy w sprawie demonetyzacji stron internetowych rzekomo powiązanych z „dezinformacją i szkodliwymi treściami” oraz Imran Ahmed, który kieruje brytyjskim Centrum Przeciwdziałania Nienawiści Cyfrowej (Center for Countering Digital Hate) i w tej chwili przebywa w USA. Wniósł on pozew przeciwko władzom w związku z planowaną deportacją.
Na decyzję Rubio natychmiast zareagowała KE „zdecydowanie potępiając” działania Stanów Zjednoczonych, a prezydent Francji Emmanuel Macron domaga się choćby zaostrzenia regulacji DSA w odpowiedzi na próby „zastraszania i przymusu mające na celu podważenie europejskiej suwerenności cyfrowej” (Amerykanie zaczęli grozić firmie Mistral z powodu zaangażowania koncernu w cenzurę). Podobnie nerwowo zareagował niemiecki minister spraw zagranicznych Johann Wadephul, uznając działania Amerykanów za „niedopuszczalne”.
Komisja Sądownictwa Izby Reprezentantów na czele z Jimem Jordanem od kilku lat prowadzi zaawansowane postępowania przeciwko „Kompleksowi Przemysłowemu Cenzury”, w który uwikłane są podmioty europejskie, o czym piszę w wyżej wspomnianej książce, a także w artykułach na PCh24.pl, przedstawiając obszerne ustalenia z setek stron raportów śródokresowych komisji.
Niedawno komisja uznała, iż europejska regulacja DSA stanowi „oczywiste zagrożenie dla amerykańskiej wolności słowa”, i „europejskie organy regulacyjne definiują wypowiedzi polityczne, humor i inne treści chronione Pierwszą Poprawką do Konstytucji jako „dezinformację” oraz „mowę nienawiści”, a następnie wymagają od platform zmiany globalnych zasad moderacji treści w celu ich cenzurowania”.
Komisja przypomniała, iż DSA uzupełniona oficjalnymi kodeksami postępowania w sprawie dezinformacji domaga się moderacji treści legalnych, które mają „negatywny wpływ na debatę obywatelską, procesy wyborcze i bezpieczeństwo publiczne”. Preambuła DSA nakazuje platformom „zwracanie szczególnej uwagi” na treści wprowadzające w błąd lub oszukańcze, takie jak dezinformacja.
Komisja Europejska kieruje działaniami mającymi na celu zapewnienie przestrzegania DSA przez platformy i stosuje potężne kary pieniężne, które mogą sięgać 6% globalnych przychodów Big Techów. W grudniu ub. roku po raz pierwszy nałożyła ona na X grzywnę w wysokości 120 milionów euro, zarzucając platformie Muska, iż w sposób oszukańczy zaprojektował swój „niebieski znacznik wyboru” dla zweryfikowanych kont, iż repozytorium reklam X nie spełniało wymagań przejrzystości i dostępności oraz, iż X nałożył niewłaściwe ograniczenia na dostęp zewnętrznych badaczy do swoich danych.
Prawdopodobnie sankcje Rubio są odpowiedzią na działania KE w sprawie X.
Warto zauważyć, iż DSA czerpie wzorce z niemieckiej ustawy o egzekwowaniu przepisów w sieciach społecznościowych (NetzDG) z 2017 r., która zabrania znieważania polityków i instytucji państwowych, podżegania do nienawiści (Volksverhetzung), znieważania wspólnot religijnych oraz gloryfikowania Holokaustu. Przepisy te podyktowane negatywnymi doświadczeniami z czasów nazistowskich, mają wynikać z doktryny „demokracji walczącej”. Ustawa NetzDG skłoniła platformy mediów społecznościowych do usuwania większych zasobów niż jest to prawnie wymagane. Moderatorzy platform mający wątpliwości, czy dane treści usuwać czy też nie, robią to zgodnie z zasadą „w razie wątpliwości usuń”.
Obecnie niemieckie Federalne Ministerstwo Sprawiedliwości i Ochrony Konsumentów ma dążyć do wydłużenia kar więzienia za przestępstwo podżegania do nienawiści rasowej oraz do ustanowienia zakazu ubiegania się o mandaty wyborcze przez osoby skazane na okres do pięciu lat, by walczyć z wpływami partii Alternatywa dla Niemiec (AfD), która zyskuje na popularności w całym kraju.
W marcu ub. roku KE opublikowała „Zestaw narzędzi wyborczych DSA”, który ma wspierać koordynatorów usług cyfrowych w zapewnianiu „integralności wyborów”. Narzędzia te obejmują: (1) zarządzanie interesariuszami; (2) komunikację i umiejętności korzystania z mediów; (3) monitorowanie i analizę ryzyka związanego z wyborami; oraz (4) reagowanie na incydenty. Już po bliższym przyjrzeniu się temu „zestawowi” widać, iż KE dąży do stworzenia „Kompleksu Przemysłowego Cenzury” na wzór amerykański, który stara się demontować obecna administracja Trumpa.
W listopadzie 2025 r. Bruksela przedstawiła Europejską Tarczę Demokracji, czyli plan mający na celu wzmocnienie zdolności UE do walki z zagraniczną dezinformacją i ingerencją polityczną (FIMI), którego egzekwowanie opiera się na Akcie o usługach cyfrowych (DSA) z 2023 r.
To sztandarowy pomysł szefowej Komisji Ursuli von der Leyen. Komisarz UE ds. praworządności Michael McGrath zaznaczył, iż „inwestycje i działania, które teraz podejmujemy, zadecydują o kondycji naszych demokracji i stabilności naszych społeczeństw dla kolejnego pokolenia obywateli europejskich”.
Plan w dużej mierze opiera się na egzekwowaniu DSA i wykorzystaniu tak zwanej sztucznej inteligencji do zarządzania dezinformacją w internecie.
Komisja ma stworzyć protokół DSA dotyczący incydentów i kryzysów, aby lepiej koordynować działania organów podczas operacji na dużą skalę, jednocześnie współpracując z platformami partnerskimi w celu demonetyzacji dezinformacji.
By bezpośrednio zwalczać ingerencję w wybory, państwa członkowskie i KE zaktualizują Zestaw Narzędzi Wyborczych DSA. Powstanie Europejska Sieć Współpracy ds. Wyborów i zostanie opracowany plan przeciwdziałania zagranicznej manipulacji informacjami i dezinformacji. Wreszcie powstanie finansowana z budżetu UE i państw członkowskich Europejska Sieć Weryfikatorów Faktów.
Urzędnicy unijni zapewniają, iż inicjatywy te nie mają na celu stworzenia „ministerstwa prawdy” ani „kontroli treści”, a jedynie „zapewnienie przejrzystości i umożliwienie demokratycznej debaty w środowisku, w którym ludzie wiedzą, skąd pochodzą informacje”.
Ostatecznie ma powstać Europejskie Centrum Odporności Demokracji, służące koordynacji współpracy w zakresie lepszego przewidywania i zarządzania zagrożeniami demokratycznymi, to jest dezinformacją podczas wyborów.
„Konieczne jest zacieśnienie koordynacji, zmniejszenie fragmentacji i zapewnienie połączenia wszystkich możliwości i wiedzy fachowej” – zaznaczył jeden z urzędników KE, obiecując wsparcie dziennikarzy poprzez nowe zabezpieczenia prawne i Program Odporności Mediów.
Obywatele mają być „edukowani” (czytaj poddawani operacji wpływu i manipulacji) w zakresie rozpoznawania dezinformacji.
Niezależnie od tych inicjatyw wiemy już, iż różne postępowe podmioty wespół z organami władzy i tak zwanymi weryfikatorami faktów oraz uczonymi z różnych uczelni amerykańskich, brytyjskich czy niemieckich bezprawnie cenzurowali i cenzurują wypowiedzi w sieci. Wykazały to raporty komisji sądownictwa kongresu USA. Podobnie, lewicowi niemieccy politycy wykorzystali „HateAid” do cenzurowania swoich wrogów, a następnie skłamali na ten temat. W październiku ub. roku prezydent Niemiec odznaczył Hodenberg Federalnym Krzyżem Zasługi za „wzmacnianie demokratycznych wartości w internecie” i „działanie na poziomie UE na rzecz bezpiecznego i demokratycznego internetu”. W czerwcu ub. roku organizacja HateAid otrzymała status „zaufanego podmiotu sygnalizującego” na mocy DSA, stając się swoistym „szeryfem online”.
Unijna regulacja DSA deleguje cenzurę „zaufanym sygnalistom”, podmiotom niepodlegającym odpowiedzialności, które funkcjonują w oparciu o własne cele polityczne lub ideologiczne i w dodatku otrzymują na swoją działalność nasze pieniądze.
W USA – jak wykazały śledztwa – Twitter i Facebook stworzyły specjalne „portale” dla finansowanych przez rząd organizacji pozarządowych, aby mogły „oznaczać” posty, które chciały ocenzurować. Organizacje te zatrudniały między innymi byłych pracowników wojska i wywiadu, dążąc do masowej cenzury i promując określone narracje, a tłumiąc inne. Na przykład „Grupa Stanford pomogła rządowi USA w cenzurze covidowej i kłamała potem na ten temat, co wykazały dokumenty.
Brazylia i inne kraje wymagają od platform mediów społecznościowych udostępniania danych użytkowników organizacjom pozarządowym wybranym przez agencje rządowe, aby te domagały się „moderacji treści” lub cenzury na podstawie tych danych, deamplifikacji, czyli ograniczenia widoczności i zasięgu materiałów.
Konsekwentnie „uprzedzeni” cenzorzy walczą z „populizmem” i „antyglobalizmem”.
Niedawno wiceminister nauki i szkolnictwa wyższego prof. Andrzej Szeptycki zapowiedział nową inicjatywę wespół z Uniwersytetem Warszawskim w sprawie zwalczania „dezinformacji naukowej”. Projekt wart co najmniej kilkanaście milionów złotych ma walczyć z dezinformacją na temat szczepień, teorii zmian klimatu itp., wykorzystując w tym celu między innymi celebrytów.
W styczniu 2022 r. brytyjskie towarzystwo naukowe Royal Society, jedno z najstarszych na świecie zasugerowało, iż cenzura w sieci choćby szkodliwych wiadomości naukowych nie jest dobrym rozwiązaniem.
Towarzystwo wypowiedziało się przeciwko brytyjskiemu projektowi ustawy dot. bezpieczeństwa w internecie, która koncentruje się na szkodach dezinformacji dla osób fizycznych, nie dostrzegając szerszych „szkód społecznych”. Dezinformacja na temat zagadnień naukowych, od bezpieczeństwa szczepionek po zmiany klimatyczne, może wyrządzić szkody jednostkom i społeczeństwu. Jednak – jak podkreślono – zmuszanie platform do usuwania pewnych treści może doprowadzić do jeszcze większego kryzysu zaufania do władzy i instytucji.
Profesor Frank Kelly, matematyk z Uniwersytetu Cambridge zaznaczył, iż „nauka balansuje na krawędzi błędu” i iż „zawsze istnieje niepewność” . jeżeli zaś będzie twierdzić się, jak to miało miejsce we wczesnych dniach „pandemii”, iż „nauka” w danej kwestii jest „absolutna”, pewna, a potem pojawią się korekty wcześniejszych ustaleń, to ludzie przestaną wierzyć naukowcom. Tymczasem ciągłe dociekanie prawdy, sprawdzanie, testowanie jakiejś „mądrości” jest „integralną częścią postępu nauki i społeczeństwa”.
Nie ma najmniejszej wątpliwości, iż środowiska postępowe, które konsekwentnie będą tracić na znaczeniu w najbliższych latach – co sugeruje co raz więcej prognoz – zrobią wszystko co w ich mocy, aby wprowadzić cenzurę. W ten sposób chcą obronić swoją pozycję.
Dążą one do urzeczywistnienia ustroju ideokracji, który świetnie opisali profesorowie Marek Bankowicz i Wiesław Kozub-Ciembroniewicz w opracowaniu „Dyktatury i tyranie. Szkice o niedemokratycznej władzy”, podkreślając, iż ideologia totalitarna „nie poprzestaje na formułowaniu wskazań o charakterze jedynie politycznym”. „Mistyczna ideologia totalitarna posiada wiele cech par excellence wiary religijnej. W miarę upływu czasu tego rodzaju ideologia coraz bardziej unika rzeczywistości, uciekając w świat kreowanej przez siebie fikcji. Totalitaryzm zawsze jest więc w większym lub mniejszym stopniu ideokracją, czyli ustrojem, w którym ideologiczna nadrzeczywistość wypiera realność. Istniejący świat i jego pojęcia są stłamszone przez swoistą fikcję, zaś słowa tracą swe tradycyjne znaczenie i nabierają nowego, przechodząc w nowomowę”.
W tym systemie tylko nieliczni mają wiedzę o zasadach rządzących porządkiem świata i jako nowa „elita” usiłują przewodzić ludowi, narzucając biernym masom zasady postępowania. W końcu wszyscy nauczą się żyć w kłamstwie. I oto właśnie chodzi zwolennikom cenzury.
Agnieszka Stelmach











