Czym jest unijny akt o usługach cyfrowych (DSA)?

gazetatrybunalska.info 4 дни назад

Unijny akt o usługach cyfrowych, powszechnie znany jako DSA (Digital Services Act), to rozporządzenie Parlamentu Europejskiego i Rady, które ma na celu gruntowną reformę przestrzeni cyfrowej wewnątrz Unii Europejskiej.

Dokument ten stanowi odpowiedź na rozwój platform internetowych i mediów społecznościowych, wprowadzając jednolite zasady dotyczące odpowiedzialności pośredników internetowych za treści publikowane przez użytkowników. Głównym założeniem aktu jest zasada, iż to, co jest nielegalne w świecie rzeczywistym, musi być również zwalczane w sferze online.

Proces wdrażania tych przepisów przebiegał etapami. Choć najważniejsze decyzje zapadały wcześniej, rozporządzenie weszło w życie 16 listopada 2022 roku. Największe platformy internetowe, te docierające do ponad 45 milionów odbiorców w Unii, musiały dostosować się do nowych wymagań już w sierpniu 2023 roku. Pełne i powszechne stosowanie przepisów DSA we wszystkich państwach członkowskich, w tym wobec mniejszych podmiotów, stało się faktem 17 lutego 2024 roku. Od tego momentu każde państwo było zobowiązane do wyznaczenia krajowego koordynatora usług cyfrowych, który czuwa nad przestrzeganiem nowych standardów bezpieczeństwa i transparentności.

Choć DSA jest rozporządzeniem unijnym i obowiązuje bezpośrednio, wymaga ono od poszczególnych państw uchwalenia przepisów krajowych regulujących kompetencje organów kontrolnych oraz procedury nakładania kar. W Polsce proces ten napotkał jednak na poważną przeszkodę legislacyjną w postaci decyzji głowy państwa. Prezydent RP zdecydował się na zawetowanie nowelizacji ustawy o świadczeniu usług drogą elektroniczną, która miała dostosować polski porządek prawny do wymagań unijnego aktu.

Głównym powodem prezydenckiego sprzeciwu nie była sama idea ochrony użytkowników w internecie, ale obawa o wolność słowa oraz sposób powoływania i funkcjonowania organu nadzorczego. W ocenie prezydenta, zaproponowane przez rząd przepisy dawały zbyt dużą władzę administracyjną nad treściami pojawiającymi się w sieci, co w pewnych okolicznościach mogłoby prowadzić do cenzury prewencyjnej lub arbitralnego blokowania kont użytkowników.

Prezydent argumentował, iż mechanizmy usuwania nielegalnych treści muszą być precyzyjne i gwarantować silną drogę odwoławczą do niezawisłych sądów, a polska ustawa w przedłożonym kształcie nie zapewniała wystarczających bezpieczników chroniących konstytucyjne prawo do swobody wypowiedzi.

Zestawienie kluczowych obowiązków

Akt o usługach cyfrowych (DSA) nakłada na największych graczy rynkowych, takich jak Facebook czy X, szereg nowych zobowiązań, które mają na celu zwiększenie kontroli nad tym, jak moderowane są treści w sieci.

  • Przejrzystość i walka z nielegalnymi treściami

Największą zmianą jest wprowadzenie mechanizmu „nakaż i działaj”. Platformy muszą udostępnić użytkownikom łatwe w obsłudze narzędzia do zgłaszania nielegalnych treści. Gdy serwis otrzyma takie zgłoszenie, ma obowiązek zareagować gwałtownie i podjąć decyzję o usunięciu materiału lub pozostawieniu go, przy czym każda taka decyzja musi zostać uzasadniona. Użytkownik, którego post został usunięty, zyskał prawo do jasnego wyjaśnienia, dlaczego tak się stało, oraz możliwość odwołania się od tej decyzji.

  • Rezygnacja z profilowania i ochrona małoletnich

DSA kładzie ogromny nacisk na prywatność i ochronę najmłodszych. Serwisy mają całkowity zakaz wyświetlania reklam ukierunkowanych (behawioralnych) dzieciom i młodzieży. Ponadto, w stosunku do wszystkich użytkowników, zabronione jest profilowanie reklam na podstawie tzw. danych wrażliwych, czyli informacji o poglądach politycznych, wyznaniu, orientacji seksualnej czy stanie zdrowia. Platformy muszą też w zrozumiały sposób wyjaśniać, dlaczego konkretna reklama wyświetliła się danemu użytkownikowi i kto za nią zapłacił.

Unijne przepisy uderzają w nieuczciwe praktyki projektowe, zwane „dark patterns”, które mają na celu manipulowanie użytkownikiem (np. utrudnianie usunięcia konta lub wymuszanie zgód marketingowych). Dodatkowo giganci technologiczni muszą ujawnić główne parametry swoich systemów rekomendacji – czyli wyjaśnić, dlaczego algorytm podpowiada nam akurat te treści. Użytkownik musi mieć także możliwość wyboru przynajmniej jednej opcji przeglądania treści, która nie jest oparta na profilowaniu (np. chronologiczny podgląd postów).

  • Analiza ryzyka i audyty

Największe platformy są zobowiązane do przeprowadzania corocznych analiz ryzyka systemowego. Muszą badać, w jaki sposób ich usługi mogą być wykorzystywane do rozpowszechniania dezinformacji, manipulacji wyborczych czy negatywnego wpływu na zdrowie psychiczne. Wyniki tych analiz są weryfikowane przez niezależne audyty oraz podlegają kontroli Komisji Europejskiej, co ma zapobiegać bezkarności cyfrowych gigantów.

→ oprac. red.

14.01.2025

• grafika: Gemini / barma / Gazeta Trybunalska

• źródło: consilium.europa.eu

• więcej o UE: > tutaj

Читать всю статью