Летальное автономное оружие

редактировать
A BAE Systems Corax во время летных испытаний

Летальное автономное оружие (ЗАКОНЫ ) представляют собой тип автономной военной системы, которая может независимо искать и поражать цели на основе запрограммированных ограничений и описаний. ЗАКОНЫ также известны как летальные автономные системы оружия (LAWS), автономные системы оружия (AWS), роботизированное оружие, роботы-убийцы или убойные роботы . ЗАКОНЫ могут действовать в воздухе, на суше, на воде, под водой или в космосе. Автономность текущих систем по состоянию на 2018 год была ограничена в том смысле, что человек дает окончательную команду для атаки - хотя есть исключения с некоторыми «защитными» системами.

Содержание

  • 1 Автономность как оружие
  • 2 Автоматические защитные системы
  • 3 Автономные наступательные системы
  • 4 Этические и юридические вопросы
    • 4.1 Стандарт, используемый в политике США
    • 4.2 Возможные нарушения этических норм и международных норм
    • 4.3 Кампании по запрещению ЗАКОНОВ
    • 4.4 Нет запрета, но есть регулирование
  • 5 См. также
  • 6 Ссылки
  • 7 Дополнительная литература

Автономность как оружие

Быть «автономным» имеет разное значение в разных областях обучения. В технике это может относиться к способности машины работать без участия человека. В философии это может относиться к человеку, который морально независим. В политологии это может относиться к способности области самоуправления. С точки зрения разработки военного оружия идентификация оружия как автономного не так ясна, как в других областях. Конкретный стандарт, вытекающий из концепции автономии, может сильно различаться у разных ученых, наций и организаций.

У разных людей есть много определений того, что представляет собой летальное автономное оружие. Хизер Рофф, писатель для юридического факультета Университета Кейс Вестерн Резерв, описывает автономные системы вооружения как «системы вооруженного оружия, способные обучаться и адаптировать свое функционирование в ответ на меняющиеся обстоятельства в среде, в которой [они ] развернуты », а также способны самостоятельно принимать решения об увольнении». Это определение автономных систем оружия является довольно высоким порогом по сравнению с определениями ученых, таких как Питер Асаро и Марк Губруд, приведенными ниже.

Ученые, такие как Питер Асаро и Марк Губруд, пытаются установить более низкий порог и считают большее количество систем оружия автономными. Они считают, что любая система оружия, способная выпустить смертоносную силу без операции, решения или подтверждения со стороны человека, может считаться автономной. По словам Губруда, система оружия, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система оружия не должна быть способной принимать решения сама по себе, чтобы называться автономной. Вместо этого к нему следует относиться как к автономному, если он активно участвует в одной или нескольких частях «процесса подготовки», от поиска цели до окончательного выстрела.

Однако другие организации устанавливают стандарты автономная система вооружения в более высоком положении. Министерство обороны (Соединенное Королевство) определяет автономные системы вооружений как «системы, способные понимать намерения и направление более высокого уровня. Исходя из этого понимания и своего восприятия окружающей среды, такая система может принимать соответствующие действие для достижения желаемого состояния. Оно способно определять курс действий из ряда альтернатив, независимо от надзора и контроля со стороны человека - однако такое взаимодействие человека с системой может все же присутствовать. Хотя общая деятельность автономный беспилотный самолет будет предсказуемым, индивидуальные действия - нет ".

В результате состав договора между государствами требует общепринятой маркировки того, что именно представляет собой автономное оружие.

Автоматические защитные системы

Самым старым смертоносным оружием, срабатывающим автоматически, является фугас, который применялся по крайней мере с 1600-х годов, и морские мины, используемые по крайней мере с 1700-х годов.. Противопехотные мины запрещены во многих странах Оттавским договором 1997 года, за исключением США, России и большей части Азии и Ближнего Востока.

Некоторыми текущими примерами ЗАКОНОВ являются автоматизированные "жесткие" системы активной защиты, такие как системы с радарным наведением CIWS, используемые для защиты судов, которые использовались с тех пор. 1970-е годы (например, US Phalanx CIWS ). Такие системы могут автономно определять и атаковать приближающиеся ракеты, ракеты, артиллерийский огонь, самолеты и надводные корабли в соответствии с критериями, установленными человеком-оператором. Аналогичные системы существуют для танков, таких как российский Arena, израильский Trophy и немецкий AMAP-ADS. В Южной Корее и Израиле используются несколько типов стационарных сторожевых орудий, которые могут стрелять по людям и транспортным средствам. Многие системы противоракетной обороны, такие как Iron Dome, также имеют возможность автономного наведения. Автоматические турели, установленные на военных транспортных средствах, называются дистанционными боевыми модулями.

. Основная причина отсутствия «человека в курсе» в этих системах - необходимость быстрого реагирования. Как правило, они использовались для защиты персонала и объектов от входящих снарядов.

Автономные наступательные системы

Системы с более высокой степенью автономности будут включать дроны или беспилотные боевые летательные аппараты, например: «Невооруженные Опытный образец реактивного боевого дрона BAE Systems Taranis может привести к созданию боевой воздушной системы будущего, которая может автономно искать, идентифицировать и определять местонахождение врагов, но может атаковать цель только с разрешения командования миссии. Он также может защищаться от вражеских самолетов »(Heyns 2013, §45). Дрон Northrop Grumman X-47B может взлетать и садиться на авианосцы (продемонстрирован в 2014 году); его планируется развить в систему беспилотного авианосного наблюдения и нанесения ударов (UCLASS).

Сербский буксирный прицеп Land Rover Defender с гусеничным боевым роботом «Милош».

Согласно The Economist, по мере развития технологий будущие применения беспилотных подводных транспортных средств могут включать разминирование, установку мин, сети противолодочных датчиков в спорных водах, патрулирование с помощью активного гидролокатора, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. В 2018 г. в американском Nuclear Posture Review утверждалось, что Россия разрабатывает «новую межконтинентальную ядерную автономную торпеду с ядерной энергетикой» под названием «Статус 6 ".

Российская Федерация активно разрабатывает искусственный интеллект ракеты, дроны, беспилотные автомобили, военные роботы и медики.

Израильский Министр Айоб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе таких маленьких, как мухи.

В октябре 2018 года Цзэн И, старший руководитель китайской оборонной фирмы Norinco, выступил с речью, в которой сказал, что «на полях сражений будущего не будут сражаться люди», и что использование летального автономного оружия в войне "неизбежно". В 2019 году министр обороны США Марк Эспер набросился на Китай за продажу беспилотных летательных аппаратов, способных унести жизнь без надзора человека.

Британская армия развернула новые беспилотные автомобили и вооруженные силы. роботы в 201 9.

ВМС США разрабатывает «призрачный» флот беспилотных кораблей.

Этические и юридические вопросы

Стандарт, используемый в политике США

Текущая политика США гласит: «Автономные… системы вооружения должны быть спроектированы таким образом, чтобы позволить командирам и операторам проявлять соответствующий уровень человеческого суждения о применении силы». Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетические сила, выбирающая и поражающая цели без дальнейшего вмешательства человека, должна быть сертифицирована как соответствующая «надлежащим уровням» и другим стандартам, а не так, что такие системы оружия не могут соответствовать этим стандартам и поэтому запрещены. «Полуавтономные» охотники-убийцы, автономно идентифицирующие и атакующие цели, даже не требуют сертификации. Заместитель министра обороны Роберт Ворк заявил в 2016 году, что министерство обороны «не будет делегировать смертоносные полномочия машине для принятия решения», но, возможно, потребуется пересмотреть это, поскольку «авторитарные режимы» могут это сделать. В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий беспилотную войну, может «вести бесконечные войны по всему миру., и многие из них - скрытые, без какой-либо ответственности или демократических дебатов ». В США искусственный интеллект, связанный с безопасностью, с 2018 года входит в компетенцию Комиссии национальной безопасности по искусственному интеллекту. 31 октября 2019 года Совет по инновациям в сфере обороны Министерства обороны США опубликовал проект отчета, в котором излагаются пять принципов создания оружия. AI и вынесение 12 рекомендаций по этичному использованию искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор всегда сможет заглянуть в «черный ящик» и понять процесс kill-chain. Основное беспокойство вызывает то, как будет реализован отчет.

Возможные нарушения этики и международных норм

Стюарт Рассел, профессор компьютерных наук из Калифорнийского университета в Беркли заявил Беспокойство, которое он испытывает по поводу ЗАКОНОВ, состоит в том, что, по его мнению, это неэтично и бесчеловечно. Основная проблема этой системы заключается в том, что трудно отличить комбатантов от некомбатантов.

Некоторые (яйцо Ноэль Шарки 2012) обеспокоены тем, не нарушат ли ЗАКОНЫ Международное гуманитарное право, особенно принцип различения, который требует способности отличать комбатантов от некомбатантов, и принцип соразмерности, который требует, чтобы ущерб, наносимый гражданским лицам, был пропорционален военной цели. Это беспокойство часто называют причиной для полного запрета «роботов-убийц» - но сомнительно, что это беспокойство может быть аргументом против ЗАКОНОВ, не нарушающих международное гуманитарное право.

Некоторые говорят, что законы размывают границы того, кто несет ответственность за конкретное убийство, но Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить запись того, кто какую команду отдал. Аналогичным образом Стивен Амбрелло, Фил Торрес и утверждают, что если технические возможности ЗАКОНОВ по крайней мере так же точны, как и человеческие солдаты, то, учитывая психологические недостатки солдат-людей на войне, гарантирует, что только эти типы этических ЗАКОНОВ должны использоваться. Аналогичным образом, они предлагают использовать подход чувствительного к ценностям в качестве потенциальной основы для разработки этих законов в соответствии с общечеловеческими ценностями и Международным гуманитарным правом.

Кампании по запрещению ЗАКОНОВ

Возможность ЗАКОНОВ вызвала серьезные споры, особенно о риске "роботов-убийц", блуждающих по Земле - в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots сформирована в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений искусственного интеллекта и призывающее к запрет на автономное оружие. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и было подписано Стивеном Хокингом, Илон Маск, Стив Возняк, Ноам Хомски, соучредитель Skype Яан Таллинн и Google DeepMind соучредитель Демис Хассабис и другие.

Согласно PAX, полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты удаляются с поля боя и публики находится на расстоянии от войны, давая политикам и другим лицам, принимающим решения, больше свободы в принятии решений, когда и как начинать войну. Они предупреждают, что, будучи развернутыми, FAW сделают демократический контроль над войной более трудным - о чем также предупреждал автор Kill Decision - романа на эту тему - и ИТ-специалист Даниэль Суарес : по его словам, это может вернуть власть в очень немногие руки, требуя, чтобы очень немногие люди пошли на войну.

Существуют веб-сайты, протестующие против развития ЗАКОНОВ, представляя возможное будущее, которое пугает зрителей, если такие исследования по применению искусственных Разведка о назначении оружия продолжается. На этих веб-сайтах постоянно обновляются новости об этических и правовых вопросах, чтобы посетители могли вспомнить последние новости о международных встречах и исследовательские статьи, касающиеся ЗАКОНОВ.

Святой Престол призвал международное сообщество запретить использование ЗАКОНЫ в нескольких случаях. В ноябре 2018 года архиепископ Иван Юркович, постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил: «Чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, настоятельно рекомендуется действовать быстро: сейчас самое время не допустить, чтобы ЗАКОНЫ стали реальностью завтрашней войны ». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отстранение от человеческого вмешательства и поставить под вопрос человечность общества.

По состоянию на 29 марта 2019 года большинство правительств, представленных в встреча ООН для обсуждения этого вопроса выступила за запрет ЗАКОНОВ. Меньшинство правительств, в том числе правительства Австралии, Израиля, России, Великобритании и США, выступили против запрета.

Никакого запрета, но регулирование

Третий подход фокусируется на регулировании использования автономных систем оружия вместо запрета. Контроль над вооружениями военного ИИ, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной («Трек II») дипломатией сообщества экспертов, а также с процессом правовой и политической проверки.

См. Также

Ссылки

Дополнительная литература

  • Heyns, Christof (2013), «Отчет Специального докладчика о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях », Генеральная Ассамблея ООН, Совет по правам человека, 23 (3), A / HRC / 23/47.
  • Кришнан, Армин (2009), Роботы-убийцы: Законность и этичность автономное оружие (Aldershot: Ashgate)
  • Мюллер, Винсент К. (2016), «Автономные роботы-убийцы, вероятно, хорошие новости» в Эцио Ди Нуччи и Филиппо Сантони де Сио (ред.), Дроны и ответственность: правовые, философские и социотехнические аспекты использования дистанционно управляемых устройств. оружие, 67-81 (Лондон: Ашгейт).
  • Кампания Стюарта Рассела против ЗАКОНОВ
  • Шарки, Ноэль Э (2012), «Автоматизация войны: уроки, извлеченные из дронов», Журнал of Law, Information Science, 21 (2).
  • Симпсон, Томас В. и Мюллер, Винсент К. (2016), «Справедливая война и убийства роботов», The Philosophical Quarterly 66 (263), 302–22.
  • Певец, Питер (2009), Wired for war: the robotics Revolution and Conflict in 21st Century (New York: Penguin)
  • Департамент США Оборона (2012 г.), «Директива 3000.09, Автономия в системах оружия». <2014 Killer Robots Policy Paper Final.docx>.
  • Министерство обороны США (2013 г.), «Интегрированная дорожная карта по беспилотным системам на 2013-2038 гг.». <http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E.
  • Семинар по этике автономных систем вооружения (2014 г.) в UPenn <https://www.law. upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >
Последняя правка сделана 2021-05-27 06:53:15
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте