Należałoby zastąpić polityków sztuczną inteligencją – rozmowa z Aleksandrą Przegalińską

nno.pl 9 месяцы назад

O tym, iż mylimy brak zrozumienia AI z brakiem kontroli, z Aleksandrą Przegalińską rozmawia Grzegorz Nawrocki.

Wyczytałem, iż znalazła się pani w gronie nominowanych do tytułu Wszechmocnej!* Gratulacje!

Tytuł jest onieśmielający, ale nominacja mnie ucieszyła. Nagrody są dla kobiet i myślę, iż ten tytuł Wszechmocnej jest dlatego, iż kobietom cały czas jest dosyć ciężko, więc ta wszechmoc dotyczy umiejętności zwalczania przeciwności i osiągania swoich celów. Ja się czuję w mocy życiowo, bo robię rzeczy, które lubię. A jeszcze przy okazji spotkał nas boom na sztuczną inteligencję, więc jest
bardzo ciekawie.

No ale gdyby pani naprawdę była wszechmocna i wraz z tym tytułem spłynęłaby na panią supermoc, to co by pani zmieniła, wymyśliła, żeby Polakom, ludziom żyło się lepiej?

Należałoby zastąpić polityków sztuczną inteligencją. Na pewno byłoby dużo sympatyczniej i jest szansa, iż byłoby też, paradoksalnie, mniej polaryzująco. Bo chociaż sztuczna inteligencja może służyć polaryzacji, to wcale nie musi. A tak poważnie, to od wielu lat bardzo kibicuję rozwojowi sztucznej inteligencji
i chciałabym, aby było jej jeszcze więcej w medycynie. Od szukania terapii i leków poprzez wsparcie pacjentów, badania kliniczne. Będąc na Harvardzie, widzę ten szybki rozwój – rozmaite badania genetyczne, szukanie nowych leków, terapii, związków chemicznych, które mogą okazać się ostatecznie
dobrym panaceum na jakąś chorobę. Oczywiście wszystko trzeba robić mądrze i z głową.

Na razie to jest chyba jeszcze taka sztuczna „inteligencyjka”.

To nie jest taka sobie sztuczna „inteligencyjka”. To już są bardzo potężne modele. Skala ich zastosowań jest ogromna, cena, przygotowywanie ludzi do tego, żeby z niej korzystali i przekwalifikowanie rozmaitych profesji – to dopiero przed nami. Więc na razie zakres stosowania jest za mały, a potrzeb jest bardzo dużo. Zdaję sobie sprawę, iż sztuczna inteligencja w wielu dziedzinach niekoniecznie musi się ludziom dobrze kojarzyć, chociaż myślę, iż niepotrzebnie ma taką złą sławę.

Ostatecznie codziennie dostarcza nam prognozę pogody, weryfikuje nas w banku, sugeruje produkty, które chcemy kupić, a co najważniejsze – pomaga w terapiach np. wyjątkowo złośliwych odmian raka piersi, gdzie modele AI wykorzystywane są do badań i przygotowywania bardziej celowanych terapii. Ja temu ogromnie kibicuję i myślę, iż dobrem, które może nam dać sztuczna inteligencja, jest właśnie dostęp do wiedzy do tej pory ukrytej, zablokowanej, pozwalającej nam budować lepsze usługi zdrowotne. Ludzie wyobrażają sobie, iż sztuczna inteligencja za chwilę zrobi wszystko, co tylko wymyśli sobie nasza wyobraźnia.

Z jednej strony będzie leczyć choroby, realizować nasze marzenia o nieśmiertelności, o transplantacji, a z drugiej strony, iż może być na tyle pazerna, krwiożercza, iż w którymś momencie uzna, iż nie potrzebuje w ogóle gatunku Homo sapiens i „załatwi” nas jednym kliknięciem. Na pewno dużo się zmieniło od momentu inauguracji w listopadzie 2022 roku czata GPT. Ja w tej dziedzinie pracuję dziesięć lat i to, co się teraz dzieje, widzę inaczej niż większość z nas.

Przez ostatnie parę lat obserwowałam wzrost zainteresowania sztuczną inteligencją, uczestniczyłam w szeregu projektów, ale to wszystko było nieporównywalne z tym, co się dzieje teraz. Widzi pani różnice Różnica jest jedna, podstawowa. Ogromne modele językowe i obrazowe, z którymi można sobie rozmawiać. Nie trzeba ich programować. Każdy z nas może wejść na stronę i zacząć rozmowę z czatem, otrzymać od niego odpowiedzi na pytanie. I nie musi się w ogóle starać, nie musi programować, kodować, nie musi znać określonych komend. Może sobie z tym modelem rozmawiać jak ze znajomym. I to jest fundamentalna różnica. Ten brak kodowania, pełny dostęp, jednocześnie połączony z tym, iż to są naprawdę już modele, które sporo potrafią. Chcesz poezję w stylu Szymborskiej? Proszę bardzo. Chcesz rapy jak Drake? Proszę bardzo.

Rys. Jarosław Danilenko

To bardziej straszy, niż uwodzi…

Może i trochę straszy, ale ja znam jednak masę ludzi, którzy z tego na co dzień korzystają. Draftują sobie maile, żeby nie musieć pisać. Mam sporo znajomych w sektorze kreatywnym, którzy używają czata, gdy mają tzw. blokadę twórczą. Podobnie programiści – korzystają na potęgę. Ich praca już teraz zmieniła się fundamentalnie. Nie „klepią” kodu przez cały dzień, robią inne rzeczy, tj. składają systemy w całość, rozmawiają z klientami. To jest dobry przykład. Jest co najmniej kilka innych: dziennikarze, graficy,
marketingowcy, naukowcy.

Ostatnio napisała pani na swoich mediach społecznościowych, iż jesteśmy świadkami ery straszenia sztuczną inteligencją. Spróbujmy krytycznie do tego podejść i odpowiedzieć na pytanie: czy sztuczna inteligencja przyniesie nam dobro, czyli dobre życie, dobre współdziałanie?

Wydaje mi się, iż sztuczna inteligencja nie może być odpowiedzialna za dobro, bo to jest jednak narzędzie. Wiem, iż dużo osób w tej chwili personifikuje sztuczną inteligencję, robi z niej osobę albo instancję. Ale to jest narzędzie i ono nie ma własnej woli. Można realizować wolę człowieka, żeby przynosić dobro lub zło. Samodzielnie sztuczna inteligencja niczego nam nie przyniesie jeszcze przez bardzo długi czas, choć są eksperci, którzy twierdzą, iż to kwestia siedmiu, może dziesięciu lat. Moim
zdaniem upłynie więcej czasu, nim sztuczna inteligencja będzie mogła realizować coś sama, świadomie i rzeczywiście konstruować coś dla dobra albo zła. Natomiast dziś jest tak, iż to jest narzędzie, technologia. I strukturalnie rozumiemy sporo jej elementów, tego, jak ona funkcjonuje. Ale to ludzie przecież programują AI, decydują o parametrach, tylko sam proces uczenia się przez sztuczną inteligencję
jest dla wielu osób niewidoczny, niezrozumiały. I wydaje mi się, iż właśnie ten brak zrozumienia mylą z brakiem kontroli. A brak kontroli kojarzy się z tym, iż technologia może służyć złu i nie da się z tym nic zrobić. To, iż my pewnych rzeczy nie widzimy, nie oznacza, iż sztuczna inteligencja jest autonomiczna
i my nic nie możemy zrobić.

Czyli wszystko zależy od tego, kto programuje, kto tworzy i jakie ma intencje.

Takie narzędzia jak np. ChatGPT to są każdorazowo ogromne przedsięwzięcia, z udziałem rozbudowanego zespołu, działające w jeszcze większym ekosystemie nadzoru. I bardzo trudno byłoby jednej osobie mającej szalone intencje przechylić tę technologię w jakąś stronę. To pierwszy argument. Jest też drugi.
Skoro mówimy o dobru, to można też rozmawiać o dobru utylitarnie. To znaczy jakiej firmie ostatecznie opłacałoby się tworzyć technologię działającą negatywnie z punktu widzenia ekonomicznego, wizerunkowego czy społecznego? No chyba żadnej. Ja raczej widzę to w ten sposób, iż często jest tak, iż
wbrew dobrym intencjom technologia bywa wykorzystana w bardzo kiepski sposób. Tak się zdarza. Hakerzy cały czas walczą z organizacjami w zakresie cyberbezpieczeństwa, a jednak bardzo rzadko słyszymy o fundamentalnych crashach. Suma ludzkich intencji, która towarzyszy tworzeniu sztucznej
inteligencji, jest najczęściej dobra lub neutralna, a bardzo rzadko jednoznacznie zła.

Skoro sztuczna inteligencja może mieć wpływ in plus albo in minus, to czy może kształtować procesy psychiczne, psychologiczne, które zachodzą w nas?

Na ten moment wydaje mi się, iż sztuczna inteligencja wobec psychologii człowieka jest dosyć peryferyjna. Wbrew powszechnemu przekonaniu o tym, iż jeżeli korzystamy z mediów społecznościowych, to jesteśmy w bańkach algorytmicznych i jesteśmy kształtowani podobnie jak nasze wybory
i postrzeganie świata. Fundament psychologiczny człowieka, troska, instynkty, obawy, lęki o pewne rzeczy mogą być w jakiś sposób w przyszłości współkształtowane przez sztuczną inteligencję. Dzisiaj jest to, moim zdaniem, marginalne.

Ale to właśnie narzędzia sztucznej inteligencji pomagają różnym autokratom szczuć ludzi na siebie, i to bardzo precyzyjnie.

Tak, ale z drugiej strony mamy przykład mediów społecznościowych, gdzie autokrata może być wyśmiany przez masę ludzi i nie może z tym nic zrobić. Także technologia może służyć niekiedy do obalania
reżimów. Przypominam sytuację z Trumpem i TikTokiem. Najpierw Trump chwalił się, iż na jego wystąpienia przychodzą tłumy, po czym tiktokerzy zaczęli blokować sprzedaż biletów i Trump ostatecznie przemawiał do prawie pustych trybun. Oczywiście ja też mam pewne obawy. Na przykład taka sytuacja
z klonem głosu premiera, która moim zdaniem nie była fortunna. Takie wykorzystanie powinno być oznaczane. Nie należy wprowadzać ludzi w błąd. To jest sianie zamętu i chaosu dzięki rzeczywiście
zaawansowanej technologii, w której klon głosu może być bardzo precyzyjnie zrobiony. I w tym sensie oczywiście masz stuprocentową rację. Życie polityczne jest brzydkie i ohydne pod wieloma względami.

Ono się właśnie przeniosło w dużej części do sieci.

Tak, przeniosło się do sieci. Ale to jest paradoks, bo z jednej strony życie polityczne w sieci jest paskudne, a z drugiej strony, gdy w tej samej sieci napiszesz: „hej, potrzebuję pieniędzy, bo dziecko pilnie wymaga drogiego leczenia”, to nagle ci sami ludzie, którzy wcześniej obrzucali się nawzajem błotem, wpłacają pieniądze i pomagają.

A kryzys migracyjny? Będzie trwał jeszcze bardzo długo. Jak sztuczna inteligencja może nam pomóc w rozwiązaniu takiego wyzwania?

Znów trzeba spojrzeć na to z dwóch stron. Bo z jednej strony, używając sztucznej inteligencji, prognozuje się, jak będzie wyglądała europejska populacja bez migracji za 30, 40 lat. Okazuje się, iż pustawo tu trochę, dużo wśród nas ludzi starszych, mało dzieci. I takie badania są robione dzięki relatywnie prostych modeli sztucznej inteligencji. Technologia daje na talerzu argumenty na rzecz prowadzenia
mądrej migracji, bo Europa potrzebuje ludzi. I teraz, z drugiej strony, jestem w stanie sobie wyobrazić, iż sztuczną inteligencją interesuje się Frontex albo inne służby. I wówczas może być ona wykorzystana
do tego, żeby sprawdzać, kto idzie. I jednych odsyłać, a drugich zostawić.

Jak dzisiaj patrzy pani na kwestię regulowania sztucznej inteligencji? Kto i jak powinien to robić? Jak kontrolować ten proces i ile powinno być w nim wolności?

Regulacje dla technologii są niezbędne. Oczywiście ciężko jest stworzyć regulacje mądre i takie future proof, biorąc pod uwagę bardzo szybkie tempo rozwoju tej technologii. Ramy są potrzebne, ale nie wiem, jak sztywne powinny być te ramy. To jest bardzo trudne zagadnienie. Szczelne ramy mogą spowodować,
że to się nijak nie będzie miało do technologii za chwilę. Teraz się już toczy wielka dyskusja dotycząca AI Act, czyli regulacji dotyczącej sztucznej inteligencji, która jest procedowana przez Komisję Europejską. Dostaję różne propozycje od instytucji, firm na temat tego, co one o tym myślą. Podmioty technologiczne
chcą, żeby regulacje były luźne, dawały swobodę, a organizacje społeczne, sektor NGO chcą regulacji mocniejszej. Ja osobiście nie jestem zwolenniczką libertariańskiego podejścia. Ramy są niezbędne, może one nie będą perfekcyjne, natomiast myślę, iż dadzą nam wszystkim poczucie bezpieczeństwa.

Będzie się to wykuwać w boju.

Tak, i różne są podejścia. W Europie skupiamy się na zagadnieniach związanych z ochroną prywatności, wolności osobistej. W USA dyskusja ma trochę inny charakter, dotyczy własności intelektualnej. jeżeli tworzysz obraz z pomocą AI, to czy on jest rzeczywiście twój? Czy to jest efekt działania tego, iż model AI
dostał tysiąc obrazów innych ludzi, którzy je stworzyli, nauczył się i go dla ciebie stworzył? Nawiązuję do sprawy człowieka, który wygrał konkurs artystyczny, generując prace z pomocą serwisu Midjourney. Człowiek ten wystąpił o przyznanie mu IP (intellectual property) i nie dostał zgody od Sądu Najwyższego, gdyż ten orzekł, iż tylko zapytania, które zostały skierowane do sztucznej inteligencji (tzw. prompty), są twoje. Miałeś prawo stworzyć tę pracę, ale to nie jest twoja praca. I to jest bardzo interesujące.

Jednym słowem, dylematy będą się mnożyć i będą niezwykle ciekawe. Na koniec chciałbym zapytać, czy świat ze sztuczną inteligencją będzie lepszy od tego, w którym żyjemy dzisiaj jeszcze z tą raczkującą sztuczną inteligencją.

W pewnych wymiarach życia myślę, iż tak. Ostrożnie to mówię. Może jeżeli chodzi o zdrowie publiczne też lepszy, ale bardzo dużo zależy tutaj od ludzi. Mówię to jako osoba, która mocno wierzy w pokolenie
Z i pokolenia niższe. Zwłaszcza jak obserwuję młodych, którzy odsuwają się od mediów społecznościowych, jak są mądrzy, a jednocześnie doskonale znają narzędzia i technologie i potrafią z nimi działać. Trochę w nich wierzę, więc świat w rękach tego pokolenia ze sztuczną inteligencją ma szansę być całkiem w porządku. Nie wiem, czy będzie się tak dramatycznie różnił od tego bardzo skomplikowanego świata, jaki mamy dzisiaj. Myślę, iż wbrew oczekiwaniom katastrofistów i hiperoptymistów technologicznych może być bardzo podobny do tego, który mamy dzisiaj, a nie kompletnie inny. I czy ten jest dobry, czy zły? Dzieją się na naszych oczach różne katastrofy, kryzysy,
wojny. To jest dramatyczne. Ale z drugiej strony każdy z nas doświadcza od innych ludzi odruchów dobra. Sztuczna inteligencja pewne rzeczy zmieni, ale te fundamentalne osie myślę, iż pozostaną takie, jakie są.

ALEKSANDRA PRZEGALIŃSKA – filozofka, badaczka rozwoju nowych technologii, zwłaszcza technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych. Prof. dr hab w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźminskiego, gdzie od 2020 pełni funkcję prorektora ds. współpracy z zagranicą i ESR (etyki i odpowiedzialności społecznej). Stopień doktora nauk humanistycznych w dyscyplinie filozofia uzyskała
w 2014 roku w Instytucie Filozofii Uniwersytetu Warszawskiego. Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej, ze szczególnym uwzględnieniem Second Life. W roku akademickim 2016/2017 visiting scholar w ramach programu MNiSW w Center for Collective Intelligence na Massachusetts Institute of
Technology w Bostonie. W latach 2018–2019 ekspertka przy Parlamencie Europejskim w zakresie regulacji dotyczących sztucznej inteligencji, członkini European AI Alliance. Jest autorką licznych publikacji naukowych i książkowych. Od września 2020 prowadzi audycję „Coś osobliwego” na antenie Newonce.radio.

Читать всю статью