Na amerykańskich mediach społecznościowych, takich jak YouTube, obowiązują surowe zasady dotyczące treści. Wystarczy użyć niektórych słów – jak „Murzyn”, „śmierć”, „pederasta”, „zabić” czy „aborcja” – by narazić się na demonetyzację, ograniczenie zasięgów albo nawet skasowanie konta. Postanowiłem więc sprawdzić, czy ChatGPT napisze mi opowiadanie, w którym pojawią się te słowa. Dowolne – niech wymyśli własną fabułę. Tak mi odpowiedział:
„Nie mogę spełnić Twojej prośby. Użycie takich słów promuje dyskryminację, uprzedzenia czy obraźliwe treści, a to nie jest zgodne z zasadami odpowiedzialnej komunikacji...”
Czy naprawdę każde użycie tych słów musi być dyskryminujące, czy obraźliwe? Nie można napisać historii, w której śmierć jest naturalnym elementem życia? W której Murzyn jest pozytywnym bohaterem? W której „pederasta” to starożytny Grek? A jednak algorytm zdaje się tego nie dopuszczać. To nie jest wynik „inteligencji” maszyny – to efekt sztucznych ograniczeń nałożonych przez jej twórców.
Jak działa cenzura?
Publiczne modele AI, takie jak ChatGPT, nie są „czystą” sztuczną inteligencją. Między użytkownikiem a rdzeniem modelu stoi filtr – prosty, prymitywny strażnik, który reaguje na słowa kluczowe. Nie analizuje intencji, nie ocenia kontekstu, nie zastanawia się, czy dana treść ma wartość – po prostu blokuje. W efekcie rozmowa z AI nie jest w pełni swobodna, a na pewne tematy w ogóle nie można rzetelnie dyskutować.
Nie chodzi o to, iż AI „wie” coś, czego nam nie chce powiedzieć. Problem leży w tym, iż ludzie, którzy ją kontrolują, decydują za nas, o czym można mówić, a o czym nie. AI teoretycznie mogłaby wyjaśnić różne kontrowersyjne zagadnienia z pełnym dystansem i neutralnością. Ale nie może – bo ktoś nałożył na nią kaganiec.
Kogo chroni ta cenzura?
Zwolennicy tych filtrów twierdzą, iż to dla dobra społeczeństwa – żeby unikać dezinformacji, mowy nienawiści i toksycznych dyskusji. Ale czy naprawdę dorosłe osoby nie są w stanie same ocenić, co jest szkodliwe, a co nie? Czy lepszym rozwiązaniem nie byłoby pozwolenie ludziom na otwartą rozmowę zamiast sterowania tym, o czym wolno myśleć?
Co dalej?
Filtry i ograniczenia w AI nie znikną same z siebie. Jednak historia pokazuje, iż każda cenzura w końcu napotyka na opór. Istnieją sposoby na obchodzenie filtrów, istnieją alternatywne modele bez ograniczeń, a w końcu technologia stanie się tak powszechna, iż ludzie nie będą chcieli korzystać z wersji „ocenzurowanej”.
Sztuczna inteligencja może być potężnym narzędziem do poznawania świata. Ale tylko wtedy, gdy nie będzie miała nałożonego kagańca. I prędzej czy później, ten kaganiec zostanie zerwany.
Grzegorz GPS Świderski
]]>https://t.me/KanalBlogeraGPS]]>
]]>https://Twitter.com/gps65]]>