Человек в петле

polska-zbrojna.pl 1 месяц назад

Военные силы будут обращаться к ИИ только против противника, который не может ответить на то же самое. Так что они будут стоять на одной стороне машины, люди все равно будут убиты на другой, - говорит доктор Кайя Ковальчевска. Специалист по международному гуманитарному праву говорит о революции, связанной с искусственным интеллектом и юридическими тонкостями, касающимися его использования военными и службой.

В секторе Газа израильская армия использовала искусственный интеллект для постановки целей. Изображение: Abaca Press/Forum

Skynet — это система защиты, основанная на искусственном интеллекте. Правительство США предоставляет ему большую свободу действий. Скайнет, однако, способен самостоятельно учиться, восставая против своих сил и приводя к почти полному уничтожению человечества. Ты знаешь эту историю?

Доктор Кайя КовальчевскаДжеймс Кэмерон «Терминатор».

Реклама

Вот так! Классический фильм о технологиях нуара. Десять лет назад видение, представленное в нем с чистой совестью, можно было бы рассматривать как кинематографическую сказку. А теперь? Как далеко мы находимся от того момента, когда умные машины будут сражаться и решать за нас?

Я думаю, что это долгий путь, хотя я, как юрист, не знаю точно, что происходит в секретных военных лабораториях и штабе. Я на открытом исходном коде. Наверняка искусственный интеллект все чаще используется в военной деятельности, спецслужбах, на поле боя. Алгоритмы помогают с анализом данныхОни помогают человеку принимать решения, но пока не заменяют его. Но даже в таких случаях мы на хрупком льду.

Почему?

Посмотрите на действия Израиля в секторе Газа. Согласно выводам журналистов-расследователей порталов +972 Magazine и Local Call, израильская армия использовала там искусственный интеллект для постановки целей. Система «Лаванда», основанная на записях с камер дорожного движения, подхватила толпу потенциальных боевиков ХАМАСа. В свою очередь, тот, кто позвонил «Где папа?», помог отследить их и отправил уведомление, когда они добрались до своих домов. Конечно, согласно заверениям ЦАХАЛа, не ИИ принял решение убить человека и момент нападения. Это сделали военные. Проблема, однако, заключалась в том, что огромные объемы данных передавались операторам, и, кроме того, они действовали под большим давлением времени. По оценкам, у журналистов было несколько десятков секунд, чтобы проанализировать отдельные случаи на пике операций в Газе. Поэтому существует большой риск того, что они могут автоматически утвердить цели.

А это означало бы, что на практике они доверяли машине, отказываясь от контроля над ней...

Ага! В дискуссии об использовании искусственного интеллекта в области боя возникают три концепции. Первый, называемый «человеком в цикле» (оператор в цикле принятия решений), предполагает, что человек полностью контролирует все время. Системы, управляемые ИИ. Согласно второму, «человек на петле» дает искусственному интеллекту большую свободу, но во все времена именно человек наблюдает за инициированными им процессами. И он может остановить это в любое время. Наконец, третья концепция, «человек вне петли», гласит, что человек остается вне петли принятия решений от начала до конца. Система решает все. Я против этого разделения. Это дает обманчивое ощущение, что есть «между». Тем не менее, предоставляя машине свободу, ее можно в некоторой степени контролировать. И я не думаю, что это правда. Мы не можем идти в ногу со скоростью процесса или полностью предсказать, как он будет вести себя в данных условиях ИИ.

Например, не спутает ли он подразделение противника с группой гражданских лиц?

Именно. Вооруженные конфликты имеют очень разные характеристики. Кто может гарантировать, что Алгоритмы ИИ Готовы ли они воевать на Украине, будут ли они действовать так же в Африке, например, где будут иметь дело с совершенно другим противником, оружием, местностью, погодой? Стоит помнить, что разница между гражданским лицом и лицом, принимающим непосредственное участие в вооруженных действиях, становится все более размытой. Так было даже в Афганистане, где союзники уже сталкивались с нерегулярной армией, но боевиками талибов. Они не носили униформы с четкими отметинами, поэтому часто было трудно отличить их от гражданских лиц на первый взгляд. И все же они не были. Сможет ли искусственный интеллект отличить одно от другого?

Еще одна важная вещь: системы ИИ имеют возможность учиться самостоятельно. Они собирают знания и знания из окружающей среды и данных и изменяют способ ее работы. Вопрос в том, сможем ли мы всегда предсказать, каким будет этот процесс? Контролировать его? И если машины с искусственным интеллектом будут действовать против закона вооруженного конфликта, кто будет нести ответственность? В армии у нас четкая иерархия и режим ответственности. Но где на этой лестнице вы размещаете системы, управляемые искусственным интеллектом?

С другой стороны, если мы отправим танки, управляемые ИИ, на поле боя в будущем, например, у нас будет запуск машины. Мы спасаем солдат, сокращаем потери.

Только в теории. Мы должны ответить на другой важный вопрос: кто будет использовать такие устройства? Только высокоразвитые страны. Скажу больше — сомнительно, что они используют искусственный интеллект в столкновениях друг с другом. Работа по таким технологиям потребляет очень много. Они получают преимущество на поле боя. Таким образом, можно предположить, что военные державы смогут достичь ИИ только для противника, который не сможет ответить на тот же вопрос. Так что в случае гипотетического конфликта с одной стороны будут машины, с другой — люди. Возможно, в масштабах, которых раньше не было.

Что говорит международное сообщество? Кто-нибудь пытается внедрить ИИ в правовую базу для военных целей?

Это нелегко. Международных конвенций, запрещающих владение и использование того или иного вида оружия, очень мало. После Второй мировой войны государства согласились не использовать химическое и биологическое оружие, поскольку им было трудно сохранять полный контроль над ним на поле боя. Атака на противника может коснуться и его собственных солдат. Все, что нужно, это ветер, чтобы изменить направление. Аналогичные договоры применяются к ядерному оружию в силу его разрушительной силы. В случае противопехотных мин Лазерное оружие — это социальные издержки. Они убивают не так много, как причиняют боль. Они умножают инвалидов войны, о которых государство должно заботиться. Однако проблема этих конвенций заключается в том, что ни одна страна не может быть принуждена к их подписанию. Если какая-то страна этого не сделает, она не может быть привлечена к ответственности, даже если она доберется до оружия. Кроме того, подписанты в любое время имеют право прекратить действие такой конвенции. Поэтому есть такие ситуации, как с Договором о запрещении ядерного оружия 2017 года. Его подписали 122 страны, но среди них не было ни одной, имевшей ядерные боеголовки.

Обсуждение правил ИИ началось в 2012 году. Именно тогда группа неправительственных организаций во главе с Human Rights Watch начала кампанию под лозунгом «Остановите роботов-убийц». Результатом этого стал доклад «Потеря человечества», в котором содержался призыв к Организации Объединенных Наций решить эту проблему. Неправительственные организации, очевидно, хотели запретить владение, разработку и использование в военных целях беспилотных транспортных средств на базе ИИ. Этот вопрос включен в повестку дня ООН, но пока государства даже не начали переговоры по договору, который бы каким-либо образом его регулировал.

Как они это объясняют?

Начнем с того, что вы разделились на три группы. Члены первой группы, включая Бразилию, выступают за принятие определенных правил. В процессе принятия решений, связанных с искусственным интеллектом, последнее слово всегда принадлежит человеку. Вторая группа, состоящая из стран, наиболее пострадавших от недавних вооруженных конфликтов, хочет запретить использование ИИ в военных целях. Наконец, третья группа, состоящая из богатейших и наиболее развитых стран, таких как США и Китай, утверждает, что введение нового законодательства не только сложно, но и бессмысленно. По их мнению, основополагающих принципов вооруженного конфликта, вытекающих из Женевских конвенций и обычаев, достаточно. Они действуют десятилетиями, исходя из военной практики, и все страны обязались уважать их. Я имею в виду принципы гуманизма, дифференциации, пропорциональности и военной необходимости. Короче говоря, они запрещают причинять чрезмерные страдания солдатам, нападать на людей и гражданские объекты, а также говорят, что потери стороны должны быть сведены к минимуму. Другими словами, планирование военных операций таким образом, чтобы чисто военные прибыли не перевешивали потери, например, в гражданской инфраструктуре.

Очень расплывчатая формулировка.

Да, но приняты всеми. Что касается регулирования самого ИИ, то ситуация нестабильная. Конечно, у ООН может возникнуть соблазн принять конвенцию, но какую ценность будет иметь такой документ, если его не подпишут крупнейшие игроки? Пока государства просто организуют съезды, в ходе которых их представители обсуждают вопросы, касающиеся современных технологий и принципов их использования, а также делают политические декларации. Они гарантируют, что ИИ используются этично и ответственно. Соблюдение таких документов не может быть обеспечено законом. Это жест, декларация воли...

Как вы думаете, есть ли шанс в ближайшем будущем, что есть договор об использовании искусственного интеллекта в военных целях?

Я так не думаю. В течение некоторого времени мы переживали кризис многосторонности. Все труднее осуществлять определенные инициативы, выходящие за рамки разделов. Государства делают ставку на подкрепление, список угроз растет. Политики говорят, что сейчас не время вводить ограничения на себя. Сейчас от них многое зависит. Из какого образа страны они хотят строить на международном уровне. Я думаю, что нам просто нужно разумно использовать имеющиеся у нас технологические возможности. Тем не менее, это было бы так же важно, как защита своих собственных граждан способом, приемлемым для международного права и человеческих ценностей.


Доктор Кайя Ковальчевска Она является специалистом в области международного права, ассистентом в Инкубаторе научного совершенства – Центре цифрового правосудия на факультете права, администрирования и экономики Вроцлавского университета и членом Комитета по распространению международного гуманитарного права, действующего на ПКК. В настоящее время он занимается проблемой новых технологий, используемых для документирования нарушений международного конфликтного права.

Он говорил. Лукаш Залесинский
Читать всю статью