Cenzura sztucznej inteligencji

niepoprawni.pl 3 часы назад

Na ame­ry­kań­ski­ch me­dia­ch spo­łecz­no­ścio­wy­ch, ta­ki­ch jak YouTu­be, obo­wią­zu­ją su­ro­we za­sa­dy do­ty­czą­ce tre­ści. Wy­star­czy użyć nie­któ­ry­ch słów – jak „Mu­rzyn”, „śmierć”, „pe­de­ra­sta”, „za­bić” czy „abor­cja” – by na­ra­zić się na de­mo­ne­ty­za­cję, ogra­ni­cze­nie za­się­gów al­bo na­wet ska­so­wa­nie kon­ta. Po­sta­no­wi­łem więc spraw­dzić, czy ChatGPT na­pi­sze mi opo­wia­da­nie, w któ­rym po­ja­wią się te sło­wa. Do­wol­ne – nie­ch wy­my­śli wła­sną fa­bu­łę. Tak mi od­po­wie­dział:

„Nie mo­gę speł­nić Two­jej proś­by. Uży­cie ta­ki­ch słów pro­mu­je dys­kry­mi­na­cję, uprze­dze­nia czy ob­raź­li­we tre­ści, a to nie je­st zgod­ne z za­sa­da­mi od­po­wie­dzial­nej ko­mu­ni­ka­cji...”

  Czy na­praw­dę każ­de uży­cie ty­ch słów mu­si być dys­kry­mi­nu­ją­ce, czy ob­raź­li­we? Nie moż­na na­pi­sać hi­sto­rii, w któ­rej śmierć je­st na­tu­ral­nym ele­men­tem ży­cia? W któ­rej Mu­rzyn je­st po­zy­tyw­nym bo­ha­te­rem? W któ­rej „pe­de­ra­sta” to sta­ro­żyt­ny Grek? A jed­nak al­go­rytm zda­je się te­go nie do­pusz­czać. To nie je­st wy­nik „in­te­li­gen­cji” ma­szy­ny – to efekt sztucz­ny­ch ogra­ni­czeń na­ło­żo­ny­ch przez jej twór­ców.

Jak dzia­ła cen­zu­ra?

  Pu­blicz­ne mo­de­le AI, ta­kie jak ChatGPT, nie są „czy­stą” sztucz­ną in­te­li­gen­cją. Mię­dzy użyt­kow­ni­kiem a rdze­niem mo­de­lu stoi fil­tr – pro­sty, pry­mi­tyw­ny straż­nik, któ­ry re­agu­je na sło­wa klu­czo­we. Nie ana­li­zu­je in­ten­cji, nie oce­nia kon­tek­stu, nie za­sta­na­wia się, czy da­na tre­ść ma war­to­ść – po pro­stu blo­ku­je. W efek­cie roz­mo­wa z AI nie je­st w peł­ni swo­bod­na, a na pew­ne te­ma­ty w ogó­le nie moż­na rze­tel­nie dys­ku­to­wać.

  Nie cho­dzi o to, iż AI „wie” coś, cze­go nam nie chce po­wie­dzieć. Pro­blem le­ży w tym, iż lu­dzie, któ­rzy ją kon­tro­lu­ją, de­cy­du­ją za nas, o czym moż­na mó­wić, a o czym nie. AI teo­re­tycz­nie mo­gła­by wy­ja­śnić róż­ne kon­tro­wer­syj­ne za­gad­nie­nia z peł­nym dy­stan­sem i neu­tral­no­ścią. Ale nie mo­że – bo ktoś na­ło­żył na nią ka­ga­niec.

Ko­go chro­ni ta cen­zu­ra?

  Zwo­len­ni­cy ty­ch fil­trów twier­dzą, iż to dla do­bra spo­łe­czeń­stwa – że­by uni­kać dez­in­for­ma­cji, mo­wy nie­na­wi­ści i tok­sycz­ny­ch dys­ku­sji. Ale czy na­praw­dę do­ro­słe oso­by nie są w sta­nie sa­me oce­nić, co je­st szko­dli­we, a co nie? Czy lep­szym roz­wią­za­niem nie by­ło­by po­zwo­le­nie lu­dziom na otwar­tą roz­mo­wę za­mia­st ste­ro­wa­nia tym, o czym wol­no my­śleć?

Co da­lej?

  Fil­try i ogra­ni­cze­nia w AI nie znik­ną sa­me z sie­bie. Jed­nak hi­sto­ria po­ka­zu­je, iż każ­da cen­zu­ra w koń­cu na­po­ty­ka na opór. Ist­nie­ją spo­so­by na ob­cho­dze­nie fil­trów, ist­nie­ją al­ter­na­tyw­ne mo­de­le bez ogra­ni­czeń, a w koń­cu tech­no­lo­gia sta­nie się tak po­wszech­na, iż lu­dzie nie bę­dą chcie­li ko­rzy­stać z wer­sji „ocen­zu­ro­wa­nej”.

  Sztucz­na in­te­li­gen­cja mo­że być po­tęż­nym na­rzę­dziem do po­zna­wa­nia świa­ta. Ale tyl­ko wte­dy, gdy nie bę­dzie mia­ła na­ło­żo­ne­go ka­gań­ca. I prę­dzej czy póź­niej, ten ka­ga­niec zo­sta­nie ze­rwa­ny.

Grzegorz GPS Świderski
]]>https://t.me/KanalBlogeraGPS]]>
]]>https://Twitter.com/gps65]]>

Читать всю статью