Гонка вооружений искусственного интеллекта

редактировать

Военная гонка вооружений искусственного интеллекта - это соревнование между двумя или более государствами за получение своих вооруженных сил оснащен лучшим искусственным интеллектом (AI). С середины 2010-х годов многие аналитики утверждали, что такая глобальная гонка вооружений для улучшения военного ИИ уже началась.

Содержание
  • 1 Терминология
  • 2 Риски
  • 3 Позиции в отношении военный искусственный интеллект
    • 3,1 Россия
    • 3,2 Китай
    • 3,3 США
    • 3,4 Великобритания
    • 3,5 Израиль
    • 3,6 Южная Корея
  • 4 Тенденции
  • 5 Предложения по международному регулированию
  • 6 Другие реакции на автономное оружие
  • 7 Дезассоциация
  • 8 См. Также
  • 9 Ссылки
  • 10 Дополнительная литература
Терминология

В более широком смысле, любое соревнование за превосходящий ИИ иногда оформлено как «гонка вооружений». Стремление к военному господству ИИ пересекается с стремлением к господству в других секторах, особенно когда страна преследует как экономические, так и военные преимущества.

Риски

Ник Бостром и другие утверждают, что риск ИИ может вызвать

Стивен Кейв из Leverhulme Center утверждает, что существует тройной риск, причем первый риск потенциально имеет геополитические последствия, а два вторых, безусловно, имеют геополитические последствия:

i) Опасности создания ИИ «гонки за технологическим преимуществом», независимо от того, серьезно ли преследуется эта гонка;

ii) Опасности создания ИИ «гонки за технологическим преимуществом» и реальной гонки ИИ за технологическое преимущество, независимо от того, выиграна ли гонка;

iii) Опасности завоевания гонки ИИ за технологическое преимущество.

Кейв утверждает, что риск усугубляется в случае гонки за общий искусственный интеллект, которая может представлять экзистенциальный риск.

Терминология гонки вооружений также иногда используется в контексте конкуренции за экономическое господство и «мягкой силы »; например, в «Промежуточном отчете» Комиссии национальной безопасности США об искусственном интеллекте за ноябрь 2019 года, подчеркивая роль дипломатии в взаимодействии с Китаем и Россией, используется язык конкурентной гонки вооружений. В нем говорится, что военно-техническое превосходство США жизненно важно для существующего мирового порядка, и подчеркивается, что продолжающаяся милитаризация ИИ США вместе с милитаризацией ИИ Китаем и Россией служит геополитическим целям:

Развитие ИИ невозможно отделить от возникающая стратегическая конкуренция с Китаем и развитие более широкого геополитического ландшафта. Мы обеспокоены тем, что роль Америки как ведущего новатора мира находится под угрозой. Мы обеспокоены тем, что стратегические конкуренты и негосударственные субъекты будут использовать ИИ, чтобы угрожать американцам, нашим союзникам и нашим ценностям. Мы знаем, что стратегические конкуренты вкладывают средства в исследования и приложения. Разумно сделать вывод, что возможности ИИ могут быть использованы для угрозы нашей критически важной инфраструктуре, усиления кампаний дезинформации и ведения войны.

В Внешняя политика Пол Шарр предупреждает, что риторика об ИИ-оружии раса сама по себе может превратиться в самореализующееся пророчество.

Позиция в отношении военного искусственного интеллекта

Россия

Мультяшная многоножка читает книги и печатает на ноутбуке. Путин (сидит, в центре) на Национальном дне знаний, 2017

Русский Генерал Виктор Бондарев, главнокомандующий ВВС России, заявил, что еще в феврале 2017 года Россия работала над управляемыми ракетами с искусственным интеллектом, которые могут переключать цели в полете. Военно-промышленный комитет России одобрил планы по обеспечению 30 процентов боевой мощи России за счет роботизированных платформ с дистанционным управлением и искусственным интеллектом к 2030 году. [1] Рост количества сообщений спонсируемых государством российских СМИ о возможном военном использовании ИИ в середине 2017 года. В мае 2017 года генеральный директор российской Кронштадтской группы, оборонного подрядчика, заявил, что «уже существуют полностью автономные операционные системы ИИ, которые предоставляют средства для кластеров БПЛА, когда они выполняют задачи автономно, разделяя задачи между собой и взаимодействуют», и что однажды "стаи дронов" неизбежно пролетят над зонами боевых действий. Россия тестирует несколько автономных и полуавтономных боевых систем, таких как боевой модуль «нейронной сети» Калашникова с пулеметом, камерой и ИИ, которые, как утверждают ее создатели, могут создавать собственные вынесение судебных решений без вмешательства человека.

В сентябре 2017 года во время обращения к более чем миллиону учащихся в 16000 российских школах в рамках Национального дня знаний президент России Владимир Путин заявил: «Будущее за искусственным интеллектом, не только для России, но и для всего человечества... Кто станет лидером в этой сфере, тот станет правителем мира ». Путин также сказал, что было бы лучше не допустить, чтобы какой-либо отдельный субъект достиг монополии, но что если Россия станет лидером в области ИИ, они поделятся своими «технологиями с остальным миром, как мы делаем сейчас с атомными и ядерными технологиями».

В России создается ряд организаций, занимающихся разработкой военного ИИ. В марте 2018 года правительство России опубликовало повестку дня в области ИИ из 10 пунктов, в которой содержится призыв к созданию консорциума ИИ и больших данных, Фонда аналитических алгоритмов и программ, поддерживаемой государством программы обучения и образования в области ИИ, специальной лаборатории ИИ., и Национальный центр искусственного интеллекта, среди других инициатив. Вдобавок Россия недавно создала оборонную исследовательскую организацию, примерно эквивалентную DARPA, посвященную автономии и робототехнике под названием «Фонд перспективных исследований», и инициировала ежегодную конференцию на тему «Роботизация вооруженных сил Российской Федерации».

Российские военные изучают ряд приложений ИИ, уделяя особое внимание полуавтономным и автономным транспортным средствам. В официальном заявлении от 1 ноября 2017 года председатель комитета Совета Федерации по обороне и безопасности Виктор Бондарев заявил, что «искусственный интеллект сможет заменить солдата на поле боя и пилота в кабине самолета», а позже отметил, что «Близится день, когда автомобили получат искусственный интеллект». Бондарев сделал эти замечания в непосредственной близости от успешного испытания «Нерехты», необитаемой российской наземной машины, которая, как сообщается, «превзошла существующие [обитаемые] боевые машины». Россия планирует использовать Нерехту в качестве платформы исследований и разработок для ИИ и может однажды развернуть систему в бою, при сборе разведданных или в логистике. Сообщается также, что Россия построила боевой модуль для необитаемой наземной техники, способный автономно идентифицировать цели - и, возможно, поражать цели - и планирует разработать набор автономных систем с поддержкой ИИ.

Кроме того, Российские военные планируют внедрить ИИ в необитаемые воздушные, военно-морские и подводные аппараты и в настоящее время развивают возможности роения. Он также изучает инновационные возможности использования ИИ для дистанционного зондирования и радиоэлектронной борьбы, включая адаптивную скачкообразную перестройку частоты, формы сигналов и меры противодействия. Россия также широко использовала технологии искусственного интеллекта для внутренней пропаганды и слежки, а также для информационных операций, направленных против Соединенных Штатов и их союзников.

Правительство России категорически отвергает любой запрет на летальных автономных системы оружия, что предполагает игнорирование такого запрета.

Китай

Китай проводит стратегическую политику «военно-гражданского слияния» в области искусственного интеллекта для достижения глобального технологического превосходства. Согласно отчету Грегори Аллена из Центра новой американской безопасности за февраль 2019 года, руководство Китая , включая верховного лидера Си Цзиньпин - считает, что быть на переднем крае технологий искусственного интеллекта имеет решающее значение для будущего глобальной военной и экономической конкуренции. Китайские военные чиновники заявили, что их цель - внедрить коммерческую технологию искусственного интеллекта, чтобы «сократить разрыв между китайскими военными и мировыми передовыми державами». Тесные связи между Кремниевой долиной и Китаем и открытый характер американского исследовательского сообщества сделали самые передовые западные технологии искусственного интеллекта легко доступными Китаю; Кроме того, китайская промышленность имеет множество собственных достижений в области искусственного интеллекта, таких как Baidu, прошедший заметный тест на распознавание речи на китайском языке в 2015 году. По состоянию на 2017 год дорожная карта Пекина нацелена на создание 150 миллиардов долларов. Индустрия искусственного интеллекта к 2030 году. До 2013 года оборонные закупки Китая в основном ограничивались несколькими конгломератами; однако по состоянию на 2017 год Китай часто закупает новые чувствительные технологии, такие как дроны и искусственный интеллект, у частных начинающих компаний. Одно китайское государство пообещало инвестировать 5 миллиардов долларов в ИИ. Пекин выделил 2 миллиарда долларов на создание парка развития искусственного интеллекта. В 2018 г. Japan Times сообщалось, что ежегодные частные китайские инвестиции в ИИ составляют менее 7 миллиардов долларов в год. На стартапы в области ИИ в Китае в 2017 году пришлась почти половина всех мировых инвестиций в стартапы в области ИИ; Китайцы подали почти в пять раз больше патентов на ИИ, чем американцы.

Китай опубликовал в 2016 году документ с изложением позиции, в котором ставился под сомнение адекватность существующего международного права для решения вопроса о возможности полностью автономного оружия, став первым постоянным членом ООН Совет Безопасности, чтобы поднять этот вопрос. В 2018 году Си призвал к расширению международного сотрудничества в области фундаментальных исследований ИИ. Китайские официальные лица выразили обеспокоенность тем, что искусственный интеллект, такой как дроны, может привести к случайной войне, особенно в отсутствие международных норм. В 2019 году министр обороны США Марк Эспер набросился на Китай за продажу беспилотных летательных аппаратов, способных уносить жизни без надзора человека.

США

«Морской охотник» выходит в море Морской охотник, автономный военный корабль США, 2016 г.

В 2014 г. бывший министр обороны Чак Хейгел сформулировал «Стратегию третьего противодействия », согласно которой быстрое развитие искусственного интеллекта определит следующее поколение ведения войны. По данным аналитической и аналитической компании Govini, Министерство обороны США увеличило инвестиции в искусственный интеллект, большие данные и облачные вычисления с 5,6 млрд долларов в 2011 году до 7,4 млрд долларов в 2016 году. Однако гражданское NSF бюджет на ИИ не увеличился в 2017 году. Japan Times сообщила в 2018 году, что частные инвестиции в США составляют около 70 миллиардов долларов в год. В «Промежуточном отчете» Комиссии национальной безопасности США по искусственному интеллекту за ноябрь 2019 года подтверждено, что ИИ имеет решающее значение для технологического военного превосходства США.

В США есть много военных программ боевого ИИ, например Автономный военный корабль Sea Hunter, который предназначен для длительной работы в море без единого члена экипажа и даже для самообслуживания в порту и из порта. С 2017 года временная директива Министерства обороны США требует, чтобы человек-оператор был в курсе, когда речь идет о лишении жизни людей автономными системами оружия. 31 октября 2019 года Совет по инновациям в обороне Министерства обороны США опубликовал проект отчета, в котором рекомендованы принципы этичного использования искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор всегда сможет изучить " черный ящик »и понять процесс kill-chain. Однако серьезную озабоченность вызывает то, как этот отчет будет реализован.

Project Maven - это проект Pentagon, предполагающий использование машинного обучения и инженерного таланта для различения людей и объектов в видеороликах с дронов, что, по-видимому, дает государственное управление и контроль на поле боя в реальном времени, а также возможность отслеживать, отмечать и шпионить за целями без участия человека. Сообщается, что он перестает действовать как система искусственного интеллекта, способная стрелять по самоназначенным целям. Проект был основан в меморандуме США. Заместитель министра обороны 26 апреля 2017 г. Также известная как Межфункциональная группа алгоритмической войны, это, по словам генерал-лейтенанта ВВС США Джека Шанахана в ноябре 2017 г., проект «разработан, чтобы стать пилотным проектом, тем первопроходцем, той искрой, которая разжигает пламя искусственного интеллекта во всем остальном министерстве [обороны]». Его начальник, США Корпус морской пехоты полковник Дрю Кьюкор сказал: «Люди и компьютеры будут работать в симбиозе, чтобы повысить способность систем оружия обнаруживать объекты». На втором техническом саммите Defense One в июле 2017 года Цукор также заявил, что инвестиции в «преднамеренный рабочий процесс» финансировались Министерством [обороны] через его «органы быстрого приобретения» примерно на « следующие 36 месяцев ».

Соединенное Королевство

В 2015 году правительство Великобритании выступило против запрета на смертоносное автономное оружие, заявив, что« международное гуманитарное право уже обеспечивает достаточное регулирование в этой области », но что все оружие, используемое вооруженными силами Великобритании, будет «под человеческим надзором и контролем».

Израиль

Израильский антирадарный беспилотник Harpy «выстрелил и забыл» предназначен для запускаться наземными войсками и автономно летать над районом, чтобы найти и уничтожить радар, который соответствует заранее определенным критериям.

Южная Корея

Южнокорейский Super aEgis II Представленный в 2010 году пулемет находит применение как в Южной Корее, так и на Ближнем Востоке. Он может идентифицировать, отслеживать и уничтожать движущуюся цель на расстоянии до 4 км. Хотя технология теоретически может работать без вмешательства человека, на практике устанавливаются меры безопасности, требующие ручного ввода. Южнокорейский производитель заявляет: «Наше оружие не спит, как люди должны. Они могут видеть в темноте, как люди не могут. Таким образом, наша технология заполняет пробелы в человеческих возможностях», и они хотят «добраться до место, где наше программное обеспечение может определить, является ли цель другом, врагом, гражданским или военным ".

Тенденции

Согласно Siemens, мировые военные расходы на робототехнику составили 5,1 доллара США. млрд в 2010 году и 7,5 млрд долларов в 2015 году.

Китай стал ведущим игроком в исследованиях искусственного интеллекта в 2010-х годах. По данным Financial Times, в 2016 году Китай впервые опубликовал больше статей об ИИ, чем весь Европейский союз. Если ограничить количество статей AI в первых 5% цитируемых статей, Китай обогнал Соединенные Штаты в 2016 году, но отстал от Европейского Союза. 23% исследователей, присутствовавших на конференции Американской ассоциации по развитию искусственного интеллекта (AAAI) в 2017 г., были китайцами. Эрик Шмидт, бывший председатель Alphabet, предсказал, что Китай станет ведущей страной в области искусственного интеллекта к 2025 году.

Докладчики AAAI:
Странав 2012 годув 2017 году
США41%34%
Китай10%23%
Великобритания5%5%
Предложения по международному регулированию

Международное регулирование автономного оружия - новая проблема международного права. Контроль над вооружениями искусственного интеллекта, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной дипломатией со стороны сообществ экспертов, а также с процессом правовой и политической проверки. Еще в 2007 году такие ученые, как профессор искусственного интеллекта Ноэль Шарки, предупреждали о «зарождающейся гонке вооружений среди высокотехнологичных стран за разработку автономных подводных лодок, истребителей, линкоров и танков, которые могут находить собственные цели и применять насильственную силу без привлечения значимых человеческих решений ". В 2014 году специалист по искусственному интеллекту Стив Омохундро предупредил, что «автономная гонка вооружений уже имеет место». Майлз Брандейдж из Оксфордского университета утверждал, что гонку вооружений ИИ можно несколько смягчить с помощью дипломатии: «Мы видели в различных исторических гонках вооружений, что сотрудничество и диалог могут приносить дивиденды». В 2017 году более сотни экспертов подписали открытое письмо с призывом к ООН заняться проблемой летального автономного оружия; однако на ноябрьской 2017 г. сессии Конвенции ООН о конкретных видах обычного оружия (CCW) дипломаты не смогли договориться даже о том, как определять такое оружие. Посол Индии и председатель КНО заявил, что достижение соглашения по правилам остается далекой перспективой. По состоянию на 2017 год двадцать две страны призвали к полному запрету летального автономного оружия.

Многие эксперты считают, что попытки полностью запретить роботов-убийц, скорее всего, потерпят неудачу. В отчете за 2017 год из Гарвардского Белферского центра предсказывается, что искусственный интеллект может быть столь же преобразующим, как ядерное оружие. В отчете также утверждается, что «Предотвратить расширенное использование ИИ в военных целях, вероятно, невозможно» и что «необходимо преследовать более скромную цель безопасного и эффективного управления технологиями», например запрет на подключение ИИ выключателя мертвого человека в ядерный арсенал. Отчасти непрактичность заключается в том, что обнаружение нарушений договора будет чрезвычайно сложно.

Другие реакции на автономное оружие

Открытое письмо 2015 года с призывом к запрету летальных автоматизированных систем оружия было подписано десятками тысячи граждан, включая ученых, таких как физик Стивен Хокинг, магнат Tesla 43>Илон Маск и Apple Стив Возняк.

Профессор Ноэль Шарки из Университета Шеффилда предупредил, что автономное оружие неизбежно попадет в руки террористических групп, таких как Исламское государство.

Дезассоциация

Многие западные технологические компании опасаются быть слишком тесно связанными с вооруженными силами США, опасаясь потерять доступ на рынок Китая. Более того, некоторые исследователи, такие как Демис Хассабис из DeepMind, идеологически выступают против участия в военной работе.

Например, в июне 2018 года источники компании: Google сообщил, что топ-менеджер Дайан Грин сообщила сотрудникам, что компания не будет продолжать работу над Project Maven после истечения срока действия текущего контракта в марте 2019 года.

См. Также
Литература
Дополнительная литература
  • Пол Шарр, «Убийственные приложения: реальные опасности гонки вооружений ИИ», Foreign Affairs, vol. 98, нет. 3 (май / июнь 2019 г.), стр. 135–44. «Сегодняшние технологии искусственного интеллекта мощны, но ненадежны. Системы на основе правил не могут справиться с обстоятельствами, которых не ожидали их программисты. Системы обучения ограничены данными, на которых они обучались. Сбои искусственного интеллекта уже привели к трагедии. хотя в некоторых обстоятельствах они хорошо себя зарекомендовали, без предупреждения загоняли машины в грузовики, бетонные преграды и припаркованные автомобили. В неправильной ситуации системы ИИ мгновенно переходят от супер-умных к сверхмощным. Когда враг пытается манипулировать и взламывать ИИ системы, риски еще больше ". (стр. 140.)
  • Комиссия национальной безопасности по искусственному интеллекту. (2019). Промежуточный отчет. Вашингтон, округ Колумбия: Автор.
Последняя правка сделана 2021-06-11 21:54:16
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте