Летальное автономное оружие - Lethal autonomous weapon

BAE Systems Corax во время летных испытаний

Летальное автономное оружие ( LAW ) - это тип автономной военной системы, которая может независимо искать и поражать цели на основе запрограммированных ограничений и описаний. ЗАКОНЫ также известны как летальные автономные системы оружия (ЗАКОНЫ), автономные системы оружия (АВС), роботизированное оружие , роботы-убийцы или бойни . ЗАКОНЫ могут действовать в воздухе, на суше, на воде, под водой или в космосе. Автономность текущих систем по состоянию на 2018 год была ограничена в том смысле, что человек дает окончательную команду для атаки - хотя есть исключения с некоторыми «защитными» системами.

Автономность как оружие

«Автономность» имеет разное значение в разных областях обучения. В инженерии это может относиться к способности машины работать без участия человека. В философии это может относиться к человеку, который морально независим. В политологии это может относиться к способности области к самоуправлению . Что касается разработки военного оружия, идентификация оружия как автономного не так ясна, как в других областях. Конкретный стандарт, вытекающий из концепции автономии, может сильно различаться у разных ученых, наций и организаций.

У разных людей есть много определений того, что представляет собой летальное автономное оружие. Хизер Рофф, писатель юридического факультета Университета Кейс Вестерн Резерв , описывает автономные системы оружия как «системы вооруженного оружия, способные учиться и адаптировать свое« функционирование в ответ на меняющиеся обстоятельства в среде, в которой [они] развернуты », как а также способны самостоятельно принимать решения об увольнении ". Это определение автономных систем оружия является довольно высоким порогом по сравнению с определениями таких ученых, как определения Питера Асаро и Марка Губруда, приведенные ниже.

Такие ученые, как Питер Асаро и Марк Губруд, пытаются установить более низкий порог и считают больше систем оружия автономными. Они считают, что любая система оружия, способная выпустить смертоносную силу без операции, решения или подтверждения со стороны человека-наблюдателя, может считаться автономной. По словам Губруда, система оружия, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система оружия не должна быть способной принимать решения полностью сама по себе, чтобы называться автономной. Вместо этого его следует рассматривать как автономный, если он активно участвует в одной или нескольких частях «процесса подготовки», от поиска цели до окончательного выстрела.

Другие организации, однако, устанавливают стандарт автономных систем вооружения на более высоком уровне. Министерство обороны (Соединенное Королевство) определяет системы автономного оружия , как «система, которые способны понять более высокий уровень намерения и направление. Из этого понимания и его восприятие окружающей его среды, такая система способно принять соответствующие меры , чтобы добиться желаемого Он способен определять курс действий из ряда альтернатив, независимо от надзора и контроля со стороны человека - однако такое взаимодействие человека с системой может все еще присутствовать. В то время как общая активность автономного беспилотного летательного аппарата будет предсказуемыми, индивидуальные действия не могут быть ».

В результате состав договора между государствами требует общепринятой маркировки того, что именно представляет собой автономное оружие.

Автоматические защитные системы

Самым старым смертоносным оружием с автоматическим срабатыванием является фугас , применяемый по крайней мере с 1600-х годов, и морские мины , используемые по крайней мере с 1700-х годов. Противопехотные мины запрещены Оттавским договором 1997 года во многих странах, за исключением США, России и большей части Азии и Ближнего Востока.

Некоторыми текущими примерами ЗАКОНов являются автоматизированные системы активной защиты «жесткого уничтожения» , такие как системы CIWS с радиолокационным наведением, используемые для защиты судов, которые использовались с 1970-х годов (например, CIWS Phalanx США ). Такие системы могут автономно идентифицировать и атаковать приближающиеся ракеты, ракеты, артиллерийский огонь, самолеты и надводные корабли в соответствии с критериями, установленными человеком-оператором. Подобные системы существуют для танков, таких как «Русская Арена» , «Израильский трофей» и немецкий AMAP-ADS . Несколько типов стационарных сторожевых орудий , которые могут стрелять по людям и транспортным средствам, используются в Южной Корее и Израиле. Многие системы противоракетной обороны , такие как Iron Dome , также имеют возможность автономного наведения. Автоматические турели, устанавливаемые на военные машины , называются дистанционными боевыми модулями .

Основная причина отсутствия «человека в курсе» в этих системах - необходимость быстрого реагирования. Как правило, они использовались для защиты персонала и объектов от летящих снарядов.

Автономные наступательные системы

Системы с более высокой степенью автономности будут включать дроны или беспилотные боевые летательные аппараты , например: «Невооруженный прототип реактивного боевого беспилотника BAE Systems Taranis может привести к созданию будущей боевой воздушной системы, которая может автономно искать, идентифицировать и определять местонахождение врагов, но может вступать в бой с целью только с разрешения командования миссии. Он также может защищаться от вражеских самолетов »(Heyns 2013, §45). Нортроп Грумман X-47B беспилотный может взлет и посадку на авианосцах (продемонстрированных в 2014 году); его планируется превратить в систему беспилотного авианосного наблюдения и нанесения ударов (UCLASS).

Сербский тягач Land Rover Defender с гусеничным боевым роботом "Милош"

Согласно The Economist , по мере развития технологий будущие применения беспилотных подводных аппаратов могут включать разминирование, установку мин, создание сетей противолодочных датчиков в спорных водах, патрулирование с помощью активного гидролокатора, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. В 2018 году в обзоре ядерной политики США утверждалось, что Россия разрабатывает «новую межконтинентальную автономную подводную торпеду с ядерным вооружением и ядерным двигателем» под названием « Статус 6 ».

Россия Федерация активно развивается искусственно интеллектуальных ракет , беспилотных летательных аппаратов , беспилотных летательных аппаратов , военных роботов и роботов медик.

Министр Израиля Айуб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе таких маленьких, как мухи.

В октябре 2018 года Цзэн И, старший исполнительный директор китайской оборонной компании Norinco , выступил с речью, в которой сказал, что «на полях сражений будущего не будут сражаться люди», и что использование смертоносного автономного оружия в войне разрешено ». неизбежный". В 2019 году министр обороны США Марк Эспер обрушился на Китай за продажу беспилотных летательных аппаратов, способных уносить жизни без надзора со стороны человека.

В 2019 году британская армия развернула новые беспилотные автомобили и военных роботов.

ВМС США разрабатывают «призрак» флотилию беспилотных кораблей .

Согласно отчету Группы экспертов Совета Безопасности ООН по Ливии, опубликованному в марте 2021 года, в 2020 году беспилотник Kargu 2 выследил и атаковал человеческую цель в Ливии. со смертоносным оружием нападали на людей.

Этические и юридические вопросы

Стандарт, используемый в политике США

Текущая политика США гласит: «Автономные… системы вооружения должны быть спроектированы таким образом, чтобы позволить командирам и операторам иметь надлежащий уровень человеческого суждения о применении силы». Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирают и поражают цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «надлежащим уровням» и другим стандартам, а не так, что такие системы оружия не могут соответствовать этим стандартам и являются поэтому запрещено. «Полуавтономные» охотники-убийцы, автономно идентифицирующие и атакующие цели, даже не требуют сертификации. Заместитель министра обороны Роберт Ворк заявил в 2016 году, что министерство обороны «не будет делегировать смертоносные полномочия машине для принятия решения», но, возможно, придется пересмотреть это, поскольку «авторитарные режимы» могут это сделать. В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий боевые действия дронов, может «вести бесконечные войны по всему миру, причем многие из них будут тайными, без какой-либо ответственности или ответственности. демократические дебаты ". В США искусственный интеллект, связанный с безопасностью, с 2018 года входит в компетенцию Комиссии национальной безопасности по искусственному интеллекту. 31 октября 2019 года Совет по инновациям в сфере обороны Министерства обороны США опубликовал проект отчета, в котором излагаются пять принципов создания оружия. ИИ и вынесение Министерством обороны 12 рекомендаций по этичному использованию искусственного интеллекта, которые гарантируют, что человек-оператор всегда сможет заглянуть в «черный ящик» и понять процесс kill-chain. Основная проблема заключается в том, как отчет будет реализован.

Возможные нарушения этики и международных норм

Стюарт Рассел , профессор информатики из Калифорнийского университета в Беркли, заявил, что обеспокоенность, которую он испытывает по поводу LAWS, заключается в том, что, по его мнению, это неэтично и бесчеловечно. Основная проблема этой системы заключается в том, что трудно отличить комбатантов от некомбатантов.

Некоторые (например, Ноэль Шарки 2012) обеспокоены тем, что ЗАКОНЫ будут нарушать международное гуманитарное право , особенно принцип различия, который требует способности отличать комбатантов от некомбатантов, и принцип соразмерности , который требует нанесения ущерба гражданским лицам. пропорционально военной цели. Это беспокойство часто называют причиной для полного запрета «роботов-убийц» - но сомнительно, что это беспокойство может быть аргументом против ЗАКОНОВ, не нарушающих международное гуманитарное право.

В отчете Исследовательской службы американского конгресса за 2021 год говорится, что «нет никаких внутренних или международных правовых запретов на развитие использования ЗАКОНОВ», хотя в нем признается, что переговоры в рамках Конвенции ООН о конкретных видах обычного оружия (CCW) продолжаются .

Некоторые говорят, что законы размывают границы того, кто несет ответственность за конкретное убийство. Философ Роберт Спарроу утверждает, что автономное оружие причинно, но не морально, подобно детям-солдатам. Он утверждает, что в каждом случае существует риск совершения злодеяний без привлечения соответствующего субъекта к ответственности, что является нарушением jus in bello . Томас Симпсон и Винсент Мюллер утверждают, что они могут упростить запись того, кто какую команду отдал. Точно так же Стивен Амбрелло , Фил Торрес и Анджело Ф. Де Беллис утверждают, что если технические возможности ЗАКОНОВ по крайней мере так же точны, как и у солдат-людей, то, учитывая психологические недостатки солдат-людей на войне, следует применять только эти типы этических ЗАКОНОВ. использовал. Точно так же они предлагают использовать ценностно-чувствительный подход к проектированию в качестве потенциальной основы для разработки этих законов в соответствии с общечеловеческими ценностями и международным гуманитарным правом . Кроме того, потенциальные нарушения МГП законами - по определению - применимы только в условиях конфликта, когда необходимо проводить различие между комбатантами и гражданскими лицами. Таким образом, любой сценарий конфликта без присутствия гражданских лиц - например, в космосе или в морских глубинах - не встретится с препятствиями, создаваемыми МГП.

Кампании по запрету ЗАКОНОВ

Возможность ЗАКОНОВ вызвала серьезные споры, особенно о риске «роботов-убийц», блуждающих по Земле - в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots сформирована в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений искусственного интеллекта и призывающее к запрету автономного оружия. Письмо было представлено в Буэнос - Айресе на 24 - й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и совместно подписываются Стивена Хокинга , Элон Маск , Стив Возняк , Ноама Хомского , Skype соучредителем Яан Таллинн и Google DeepMind со- основатель Демис Хассабис и другие.

Согласно PAX For Peace (одна из организаций-учредителей Кампании по борьбе с роботами-убийцами), полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты удаляются с поля битвы, а население отстраняется от войны. дает политикам и другим лицам, принимающим решения, больше свободы в принятии решений, когда и как начинать войну. Они предупреждают, что после развертывания FAW сделают демократический контроль над войной более трудным - о чем также предупреждал автор Kill Decision - романа на эту тему - и ИТ-специалист Дэниел Суарес : по его мнению, это может вернуть власть в руки очень немногих людей. требуя, чтобы очень немногие люди пошли на войну.

Существуют веб-сайты, протестующие против разработки ЗАКОНОВ, представляя нежелательные последствия, если исследования использования искусственного интеллекта для обозначения оружия продолжаются. На этих веб-сайтах постоянно обновляются новости по этическим и правовым вопросам, чтобы посетители могли вспомнить последние новости о международных встречах и исследовательские статьи, касающиеся ЗАКОНОВ.

Святейший Престол призвал международное сообщество запретить использование ЗАКОНЫ несколько раз. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил: «Чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, необходимо действовать незамедлительно. время предотвратить превращение ЗАКОНОВ в реальность завтрашней войны ». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отстранение от человеческого вмешательства и поставить под вопрос гуманность общества.

По состоянию на 29 марта 2019 года большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет ЗАКОНОВ. Меньшинство правительств, в том числе Австралии, Израиля, России, Великобритании и США, выступило против запрета.

Нет запрета, но регулирование

Третий подход направлен на регулирование использования автономных систем оружия вместо запрета. Контроль над вооружениями военного ИИ, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной («Трек II») дипломатией сообщества экспертов, а также с процессом правовой и политической проверки.

Смотрите также

использованная литература

дальнейшее чтение

  • Хейнс, Кристоф (2013), «Отчет Специального докладчика по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях», Генеральная Ассамблея ООН, Совет по правам человека, 23 (3), A / HRC / 23/47.
  • Кришнан, Армин (2009), Роботы-убийцы: Законность и этичность автономного оружия (Олдершот: Ashgate)
  • Мюллер, Винсент К. (2016), «Автономные роботы-убийцы, вероятно, хорошие новости» , в Эцио Ди Нуччи и Филиппо Сантони де Сио (ред.), Дроны и ответственность: Правовые, философские и социотехнические перспективы использования удаленных устройств. управляемое оружие, 67-81 (Лондон: Ашгейт).
  • Кампания Стюарта Рассела против ЗАКОНОВ
  • Шарки, Ноэль Э (2012), «Автоматизация войны: уроки, извлеченные из дронов», Journal of Law, Information & Science , 21 (2).
  • Симпсон, Томас В. и Мюллер, Винсент К. (2016), «Справедливая война и убийства роботов» , The Philosophical Quarterly 66 (263), 302–22.
  • Певец, Питер (2009), Wired for war: the robotics Revolution and Conflict in 21st Century (New York: Penguin)
  • Министерство обороны США (2012 г.), «Директива 3000.09, Автономность в системах вооружений». <Документ о политике в отношении роботов-убийц 2014 г., Final.docx>.
  • Министерство обороны США (2013 г.), «Интегрированная дорожная карта беспилотных систем на 2013-2038 гг.». < http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E .
  • Семинар по этике автономных систем оружия (2014 г.) в UPenn < https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >