Człowiek w pętli

polska-zbrojna.pl 2 часы назад

Militarne mocarstwa sięgną po AI tylko wobec przeciwnika, który nie może odpowiedzieć tym samym. Po jednej stronie staną więc maszyny, po drugiej przez cały czas będą ginęli ludzie – uważa dr Kaja Kowalczewska. Specjalistka od międzynarodowego prawa humanitarnego mówi o rewolucji związanej ze sztuczną inteligencją i zawiłościach prawnych dotyczących jej stosowania przez wojsko i służby.

W Strefie Gazy izraelska armia używała sztucznej inteligencji do typowania celów. Fot. Abaca Press/Forum

Skynet to system obrony oparty na sztucznej inteligencji. Rząd USA daje mu ogromną swobodę działania. Skynet zdolny do samodzielnej nauki buntuje się jednak przeciwko swoim mocodawcom i doprowadza do niemal całkowitej zagłady ludzkości. Kojarzy Pani taką historię?

Dr Kaja Kowalczewska: „Terminator” Jamesa Camerona.

REKLAMA

Właśnie tak! Klasyczny film nurtu noir tech. Jeszcze dekadę temu przedstawioną w nim wizję z czystym sumieniem można było potraktować jak kinową bajkę. A teraz? Jak daleko jesteśmy od momentu, kiedy inteligentne maszyny będą walczyły i decydowały za nas?

Myślę, iż jednak daleko, choć muszę zastrzec, iż jako prawniczka nie wiem do końca, co dzieje się w tajnych wojskowych laboratoriach i sztabach. Jestem zdana na informacje z otwartych źródeł. Na pewno sztuczna inteligencja [artificial intelligence – AI] znajduje coraz szersze zastosowanie w działaniach armii, służb specjalnych, na polu walki. Algorytmy pomagają w analizowaniu danych, wspomagają człowieka w podejmowaniu decyzji, ale jeszcze go nie zastępują. Tyle iż choćby w takich przypadkach stąpamy po kruchym lodzie.

Dlaczego?

Wystarczy spojrzeć na działania Izraela w Strefie Gazy. Jak wynika z ustaleń dziennikarzy śledczych portali +972 Magazine i Local Call, izraelska armia używała tam sztucznej inteligencji do typowania celów. System „Lavender” na podstawie zapisów z ulicznych kamer wyławiał z tłumu potencjalnych bojowników Hamasu. Z kolei ten o nazwie „Where’s Daddy?” pomagał ich śledzić i wysyłał powiadomienie w momencie, kiedy docierali oni do domów. Oczywiście zgodnie z zapewnieniami IDF [Israel Defense Forces, czyli Izraelskich Sił Obronnych], to nie AI podejmowała decyzję o zabiciu danej osoby i samym momencie ataku. Robili to wojskowi. Problem jednak w tym, iż do operatorów spływały ogromne ilości danych, a dodatkowo działali oni pod silną presją czasu. Według wyliczeń dziennikarzy w szczytowym momencie operacji w Gazie na analizę poszczególnych przypadków mieli po kilkadziesiąt sekund. Istnieje zatem duże ryzyko, iż mogli zatwierdzać cele automatycznie.

A to by oznaczało, iż w praktyce zawierzyli maszynie, rezygnując z kontroli nad nią...

Właśnie! W rozważaniach nad zastosowaniem sztucznej inteligencji na polu walki pojawiają się trzy koncepcje. Pierwsza, określana terminem „human in the loop” [operator w pętli decyzyjnej], zakłada, iż człowiek przez cały czas w pełni panuje nad systemami zarządzanymi przez AI. Według drugiej – „human on the loop” [operator włączony w pętlę], daje sztucznej inteligencji dużą swobodę, ale przez cały czas to człowiek nadzoruje przebieg zainicjowanych przez nią procesów. I w każdej chwili może je przerwać. I wreszcie koncepcja trzecia, „human out of the loop”, która mówi, iż człowiek od początku do końca pozostaje poza pętlą decyzyjną. O wszystkim decyduje system. Otóż, jestem przeciwniczką takiego podziału. Daje on bowiem złudne poczucie, iż istnieje jakieś „pomiędzy”. Że dając swobodę maszynie, można ją jednak w jakimś stopniu kontrolować. A moim zdaniem to nieprawda. Nie jesteśmy w stanie nadążyć za szybkością procesowania ani też do końca przewidzieć, jak zachowa się w danych warunkach AI.

Czy na przykład nie pomyli pododdziału przeciwnika z grupką cywilów?

Właśnie. Konflikty zbrojne mają bardzo różną specyfikę. Kto nam zagwarantuje, iż algorytmy AI przygotowane do tego, by walczyć w Ukrainie, zadziałają tak samo na przykład w Afryce, gdzie będą miały do czynienia z zupełnie innym przeciwnikiem, uzbrojeniem, ukształtowaniem terenu, pogodą? Warto przy tym pamiętać, iż różnica pomiędzy osobą cywilną a osobą biorącą bezpośredni udział w działaniach zbrojnych coraz częściej się zaciera. Tak było choćby w Afganistanie, gdzie wojska sojusznicze miały naprzeciw siebie już nieregularną armię, ale talibańskich bojowników. Nie wkładali oni mundurów z wyraźnymi oznaczeniami, często więc na pierwszy rzut oka trudno ich było odróżnić od osób cywilnych. A jednak nimi nie byli. Czy sztuczna inteligencja w każdym przypadku będzie potrafiła rozróżnić jednych od drugich?

Kolejna ważna rzecz: systemy AI posiadają zdolność do samodzielnego uczenia się. Gromadzą płynącą z otoczenia i danych wiedzę i na jej podstawie modyfikują sposób działania. Pytanie, czy zawsze będziemy w stanie przewidzieć, w którą stronę ten proces pójdzie? Zapanować nad nim? A jeżeli już maszyny napędzane przez AI dopuszczą się działań sprzecznych z prawem konfliktów zbrojnych, kto będzie za to odpowiadał? W wojsku mamy jasną hierarchię i reżim odpowiedzialności. Gdzie jednak na tej drabinie ulokować systemy napędzane przez sztuczną inteligencję?

Z drugiej strony, jeżeli w przyszłości wyślemy na pole bitwy na przykład czołgi sterowane przez AI, to będziemy mieli starcie maszyn. Oszczędzimy żołnierzy, zredukujemy liczbę ofiar.

Tylko w teorii. Musimy bowiem odpowiedzieć sobie na kolejne ważne pytanie: kto będzie korzystał z tego rodzaju urządzeń? Tylko państwa wysoko rozwinięte. Powiem więcej – wątpliwe, by używały one sztucznej inteligencji w starciach przeciwko sobie. Prace nad takimi technologiami pochłaniają krocie. Prowadzi się je po to, by zyskać przewagę na polu bitwy. Bez większego ryzyka można zatem przyjąć, iż militarne mocarstwa sięgną po AI tylko wobec przeciwnika, który nie może odpowiedzieć tym samym. A zatem w razie hipotetycznego konfliktu po jednej stronie staną maszyny, po drugiej przez cały czas będą ginęli ludzie. Być może w skali nigdy wcześniej niespotykanej.

Co na to międzynarodowa społeczność? Czy ktokolwiek stara się ująć kwestie zastosowania AI do celów militarnych w ramy prawne?

To niełatwa sprawa. Międzynarodowe konwencje, które zakazują posiadania i używania danego typu uzbrojenia, są naprawdę nieliczne. Po II wojnie światowej państwa zgodziły się, iż nie należy sięgać po broń chemiczną i biologiczną, ponieważ uznały, iż na polu bitwy trudno zachować nad nimi pełną kontrolę. Atak na przeciwnika może dotknąć też własnych żołnierzy. Wystarczy, iż wiatr zmieni kierunek. Podobne traktaty dotyczą broni nuklearnej, ze względu na jej niszczycielską siłę. W przypadku min przeciwpiechotnych i broni laserowej chodzi zaś o koszty społeczne. One nie tyle uśmiercają, ile zadają rany. Namnażają wojennych inwalidów, którymi potem musi opiekować się państwo. Problem ze wspomnianymi konwencjami polega jednak na tym, iż żadnego kraju nie można zmusić do ich podpisania. jeżeli jakieś państwo tego nie zrobi, nie może być pociągnięte do odpowiedzialności, choćby jeżeli po daną broń sięgnie. Co więcej, sygnatariusze w każdej chwili mają prawo taką konwencję wypowiedzieć. Dochodzi więc do sytuacji takich jak ta z traktatem o zakazie posiadania broni jądrowej z 2017 roku. Podpisały go 122 kraje, ale wśród nich nie było żadnego, który głowicami atomowymi dysponuje.

Dyskusje nad regulacjami dotyczącymi AI rozpoczęły się jeszcze w 2012 roku. Wówczas to grupa organizacji pozarządowych pod przewodnictwem Human Rights Watch zainicjowała kampanię pod hasłem „Stop Killer Robots” [powstrzymać zabójcze maszyny]. Jej efektem stał się raport „Losing Humanity” [utrata człowieczeństwa], który zawierał wezwanie, by Organizacja Narodów Zjednoczonych zajęła się tym tematem. Organizacje pozarządowe chciały oczywiście wprowadzenia zakazu posiadania, rozwijania i używania do celów militarnych bezzałogowych pojazdów napędzanych przez AI. Zagadnienie znalazło się w agendzie ONZ-etu, ale jak dotąd państwa choćby nie rozpoczęły negocjacji na temat traktatu, który w jakikolwiek sposób regulowałby tę kwestię.

Jak to tłumaczą?

Zacznijmy od tego, iż państwa podzieliły się na trzy grupy. Członkowie pierwszej, w skład której wchodzi m.in. Brazylia, opowiadają się za wprowadzeniem pewnych regulacji. Miałyby one zagwarantować, iż w procesie decyzyjnym z udziałem sztucznej inteligencji ostatnie słowo zawsze będzie należało do człowieka. Druga grupa, składająca się z państw najsilniej dotkniętych skutkami toczących się w ostatnim czasie konfliktów zbrojnych, w ogóle chce zakazać używania AI do celów militarnych. I wreszcie grupa trzecia, złożona z najzamożniejszych i najwyżej rozwiniętych państw, takich jak USA czy Chiny, przekonuje, iż wprowadzenie nowych przepisów jest nie tylko trudne, ale też bezcelowe. Według nich wystarczą fundamentalne zasady prowadzenia konfliktów zbrojnych, które wynikają z konwencji genewskich i zwyczaju. Obowiązują one od dekad, wynikają z wojennej praktyki, do ich respektowania zaś zobowiązały się wszystkie państwa. Mam tu na myśli zasady humanitaryzmu, rozróżniania, proporcjonalności oraz konieczności wojskowej. w uproszczeniu zakazują one zadawania żołnierzom strony przeciwnej nadmiernych cierpień, atakowania osób i obiektów cywilnych, mówią też o konieczności minimalizacji strat ubocznych. Innymi słowy takiego planowania operacji wojskowych, by zyski czysto militarne nie przewyższyły strat na przykład w infrastrukturze cywilnej.

Sformułowania bardzo nieostre.

Tak, ale jednak akceptowane przez wszystkich. jeżeli chodzi o regulacje dotyczące samej AI sytuacja jest patowa. Oczywiście ONZ może się pokusić o przyjęcie jakiejś konwencji, ale jaką wartość będzie miał taki dokument, jeżeli nie podpiszą się pod nim najwięksi gracze? Na razie państwa poprzestają na organizowaniu kongresów, podczas których ich przedstawiciele omawiają zagadnienia związane z nowoczesnymi technologiami i zasadami ich użycia, a także składają polityczne deklaracje. Zapewniają w nich, iż AI będą używać w sposób etyczny i odpowiedzialny. Przestrzegania takich dokumentów nie można egzekwować na drodze prawnej. Są one pewnym gestem, deklaracją woli...

Myśli Pani, iż w niedalekiej przyszłości jest szansa na jakiś traktat dotyczący wykorzystania sztucznej inteligencji do celów wojskowych?

Nie sądzę. Od pewnego czasu mamy kryzys multilateralizmu. Coraz trudniej o realizację pewnych inicjatyw ponad podziałami. Państwa stawiają na zbrojenia, lista zagrożeń rośnie. Politycy powtarzają, iż to nie czas na narzucanie sobie ograniczeń. Wiele zależy teraz od nich samych. Od tego, jaki wizerunek kraju na arenie międzynarodowej chcą budować. Myślę, iż trzeba po prostu rozsądnie korzystać z możliwości technologicznych, którymi dysponujemy. Tak by choćby rzecz tak ważna jak obrona własnych obywateli przeprowadzana była w sposób akceptowalny z perspektywy prawa międzynarodowego i ogólnoludzkich wartości.


Dr Kaja Kowalczewska jest specjalistką od prawa międzynarodowego, adiunktką w Inkubatorze Doskonałości Naukowej – Centrum Digital Justice na Wydziale Prawa, Administracji i Ekonomii Uniwersytetu Wrocławskiego oraz członkinią Komisji ds. Upowszechniania Międzynarodowego Prawa Humanitarnego działającej przy PCK. w tej chwili zajmuje się problematyką nowych technologii używanych do dokumentowania naruszeń międzynarodowego prawa konfliktów zbrojnych.

Rozmawiał Łukasz Zalesiński
Читать всю статью