Регулирование искусственного интеллекта

редактировать

Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования искусственный интеллект (AI); поэтому это связано с более широким регулированием алгоритмов. Нормативно-правовая база ИИ - это новая проблема в юрисдикциях по всему миру, в том числе в Европейском союзе. Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. Регулирование ИИ с помощью таких механизмов, как советы по обзору, также можно рассматривать как социальное средство решения проблемы управления ИИ.

Содержание
  • 1 Перспективы
    • 1.1 Как ответ на проблему управления ИИ
  • 2 Глобальное руководство
  • 3 Региональные и национальные правила
    • 3,1 Китай
    • 3,2 Европейский Союз
    • 3,3 Соединенное Королевство
    • 3,4 США
  • 4 Регулирование полностью автономного оружия
  • 5 См. Также
  • 6 Источники
Перспективы

Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования ИИ. Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. Соображения государственного управления и политики, как правило, сосредоточены на технических и экономических последствиях и на надежных и ориентированных на человека системах ИИ, хотя также рассматривается регулирование искусственного суперинтеллекта. Законодательство и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности. Подход государственного управления видит взаимосвязь между законом и регулированием ИИ, этикой ИИ и «обществом ИИ», определяемым как замещение и трансформация рабочей силы, социальное признание и доверие к ИИ, а также преобразование человека в машинное взаимодействие. Разработка стратегий государственного сектора для управления и регулирования ИИ считается необходимой на местном, национальном и международном уровнях и в различных областях, от управления государственными услугами и подотчетности до правоохранительных органов, финансового сектора, робототехники, автономных транспортных средств, военная и национальная безопасность, а также международное право.

В 2017 Илон Маск призвал к регулированию разработки ИИ. Согласно NPR, генеральный директор Tesla был «явно не в восторге» от того, что выступал за контроль со стороны правительства, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия контроля слишком высоки. : «Обычно правила устанавливаются, когда происходит куча плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующее агентство, которое регулирует эту отрасль. Это занимает вечность. В прошлом это было плохо, но не то, что представляет фундаментальный риск для существования цивилизации ». В ответ некоторые политики скептически оценили целесообразность регулирования технологии, которая все еще находится в стадии разработки. Отвечая как на предложения Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич утверждал, что ИИ находится в зачаточном состоянии и что еще слишком рано регулировать эту технологию. Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с какой-либо формой гарантии.

В ответ на проблему управления ИИ

Регулирование ИИ можно рассматривать как позитивное социальное средство для решения проблемы управления ИИ, т. Е. Необходимости обеспечить долгосрочную полезную ИИ с другими социальными ответами, такими как бездействие или запрет восприниматься как непрактичный, а такие подходы, как расширение человеческих возможностей с помощью трансгуманизма, такие как интерфейсы мозг-компьютер, которые рассматриваются как потенциально дополняющие друг друга. Регулирование исследований в области общего искусственного интеллекта (AGI) фокусируется на роли контрольных комиссий, от университетов или корпораций до международных уровней, и на поощрении исследований в области безопасного ИИ, а также на возможности дифференцированного интеллектуального прогресса (определение приоритетов стратегии снижения риска по сравнению со стратегиями принятия риска при разработке ИИ) или проведение международного массового наблюдения для осуществления контроля над вооружениями AGI. Например, «AGI Nanny» - это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасного суперинтеллекта, а также для устранения других серьезных угроз человеческому благополучию, таких как подрывная деятельность. мировой финансовой системы, пока не будет безопасно создан сверхразум. Это влечет за собой создание более умной, чем человек, но не сверхинтеллектуальной системы общего искусственного интеллекта, подключенной к большой сети наблюдения, с целью наблюдения за человечеством и защиты его от опасностей ». Этически осведомленные ОИИ нацелены на их интеграцию с существующим человеческим обществом и могут быть разделены на соображения, связанные с их юридическим статусом и их моральными правами. Регулирование ИИ рассматривается как ограничительное, с риском предотвращения развития ОИИ.

Глобальное руководство

Создание глобального совета по управлению разработкой искусственного интеллекта было предложено как минимум еще в 2017 году. В декабре 2018 года Канада и Франция объявили о планах создания Международной группы экспертов по искусственному интеллекту при поддержке G7. по образцу Международной группы экспертов по изменению климата для изучения глобального воздействия ИИ на людей и экономику и для управления развитием ИИ. В 2019 году Группа была переименована в Глобальное партнерство по ИИ, но это t будут одобрены США.

Рекомендации ОЭСР по ИИ были приняты в мае 2019 г., а Принципы ИИ G20 - в июне 2019 г. В сентябре 2019 г. Всемирный экономический форум опубликовал десять «Руководящие принципы государственных закупок AI». В феврале 2020 года Европейский Союз опубликовал свой проект стратегического документа по продвижению и регулированию ИИ. В Организации Объединенных Наций несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, в том числе Центр ИИ и робототехники ЮНИКРИ.

Региональное и национальное регулирование
График реализации стратегий, планов действий и программных документов установка, определяющая национальные, региональные и международные подходы к ИИ

Нормативно-правовая и политическая среда для ИИ - новая проблема в юрисдикциях по всему миру, в том числе в Европейском Союзе. С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и программные документы по ИИ. Эти документы охватывают широкий круг тем, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура.

Китай

Регулирование ИИ в Китае в основном регулируется Государственный совет КНР от 8 июля 2017 г. «План развития искусственного интеллекта следующего поколения» (Документ Государственного совета № 35), в котором Центральный комитет Коммунистической партии Китая и Государственный совет Китайской Народной Республики призвал руководящие органы Китая содействовать развитию ИИ. Регулирование вопросов этического и правового обеспечения разработки ИИ только зарождается, но политика обеспечивает государственный контроль над китайскими компаниями и ценными данными, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных данных Китайской Народной Республики. стандарты для искусственного интеллекта, включая большие данные, облачные вычисления и промышленное программное обеспечение.

Европейский Союз

Европейский Союз (ЕС) руководствуется Европейской стратегией искусственного интеллекта, поддерживаемой -Экспертная группа уровня по искусственному интеллекту. В апреле 2019 года Европейская комиссия опубликовала «Руководящие принципы этики надежного искусственного интеллекта (ИИ)», вслед за этим в июне 2019 года были опубликованы рекомендации по политике и инвестициям в надежный искусственный интеллект.

2 февраля 2020 года Европейская комиссия опубликовала Белую книгу об искусственном интеллекте - европейский подход к совершенству и доверию. Белая книга состоит из двух основных строительных блоков: «экосистемы передового опыта» и «экосистемы доверия». В последнем излагается подход ЕС к нормативной базе ИИ. В предлагаемом подходе Комиссия различает приложения ИИ с «высоким риском» и «без риска». Только первое должно входить в сферу будущей нормативной базы ЕС. Будет ли это так, в принципе можно определить по двум совокупным критериям, касающимся критических секторов и критического использования. Для приложений искусственного интеллекта с высоким уровнем риска рассматриваются следующие ключевые требования: требования к обучающим данным; данные и учет; информационные обязанности; требования к надежности и точности; человеческий надзор; и особые требования для конкретных приложений искусственного интеллекта, таких как те, которые используются для удаленной биометрической идентификации. Приложения ИИ, которые не квалифицируются как «высокорисковые», могут регулироваться схемой добровольной маркировки. Что касается соответствия и правоприменения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, инспекции или сертификации» и / или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в виде основы для сотрудничества национальных компетентных органов могла бы облегчить внедрение нормативной базы.

Соединенное Королевство

Великобритания поддержала применение и развитие ИИ в бизнесе через Стратегию цифровой экономики на 2015-2018 годы,, представленную в начале 2015 года компанией Innovate UK как часть цифровой стратегии Великобритании. В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта дал рекомендации по этике данных и Институт Алана Тьюринга по ответственному проектированию и внедрению систем искусственного интеллекта. Что касается кибербезопасности, Национальный центр кибербезопасности выпустил руководство по «Интеллектуальным инструментам безопасности».

США

Обсуждение регулирования ИИ в США включены такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, в том числе то, какое агентство должно руководить, регулирующие и руководящие полномочия этого агентства и как обновлять нормативные акты в условиях быстро меняющихся технологий, а также роли правительств и судов штатов.

Первым основным отчетом был Национальный план стратегических исследований и разработок в области искусственного интеллекта. 13 августа 2018 г., раздел 1051 Закона 2019 финансовый год Закон Джона С. Маккейна о полномочиях национальной обороны (PL 115-232) учредил Комиссию национальной безопасности по искусственному интеллекту «для рассмотрения методов и средств, необходимых для продвижения разработки. искусственного интеллекта, Mac hine обучение и связанные с ним технологии для всестороннего удовлетворения потребностей национальной безопасности и обороны Соединенных Штатов ». Управление регулированием ИИ, связанного с безопасностью, обеспечивает Комиссия национальной безопасности по искусственному интеллекту. Закон об инициативе в области искусственного интеллекта (S.1558) - это предлагаемый законопроект, который установит федеральную инициативу, направленную на ускорение исследований и разработок в области ИИ, в частности, для экономической и национальной безопасности Соединенных Штатов.

На 7 января 2019 г., следуя исполнительному указу о поддержании американского лидерства в области искусственного интеллекта, Управление науки и технологий Белого дома выпустило проект Руководства по регулированию приложений искусственного интеллекта, который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ. В ответ Национальный институт стандартов и технологий выпустил документ с изложением позиции, Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет, а Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ.

Регулирование полностью автономного оружия

Правовые вопросы, связанные с летальными автономными системами оружия (LAWS), в частности соблюдение законов вооруженных конфликтов, обсуждались на ООН с 2013 г. в контексте Конвенции о конкретных видах обычного оружия. Примечательно, что в 2014, 2015 и 2016 годах состоялись неофициальные встречи экспертов, и была назначена Группа правительственных экспертов (ГПЭ) для дальнейшего обсуждения этого вопроса в 2016 году. Набор руководящих принципов по ЗАКОНОДАТЕЛЬСТВУ, утвержденных ГПЭ по ЗАКОНОДАТЕЛЬСТВУ, был принят в 2018.

В 2016 году Китай опубликовал позиционный документ, в котором ставит под сомнение адекватность существующего международного права для решения вопроса о возможности создания полностью автономного оружия, став первым постоянным членом ООН Совета Безопасности, затронувшим вопрос проблема и приводит к предложениям по глобальному регулированию. Возможность моратория или упреждающего запрета на разработку и использование АСОЛД также неоднократно поднималась другими национальными делегациями в Конвенции о конкретных видах обычного оружия, и за это решительно выступает Кампания по остановке роботов-убийц - коалиция неправительственных организаций.

См. также
Литература
  1. ^Справочник по исследованиям в области права искусственного интеллекта. Барфилд, Вудро, Пагалло, Уго. Челтенхэм, Великобритания. 2018. ISBN 978-1-78643-904-8. OCLC 1039480085. CS1 maint: другие (ссылка )
  2. ^Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018-07- 24). «Искусственный интеллект и государственный сектор - приложения и проблемы». Международный журнал государственного управления. 42 (7): 596–615. doi : 10.1080 / 01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602.
  3. ^Buiten, Miriam C (2019). «На пути к интеллектуальному регулированию искусственного интеллекта». Европейский журнал регулирования рисков. 10 (1): 41–59. doi : 10.1017 /err.2019.8. ISSN 1867-299X.
  4. ^ Искусственный интеллект в обществе. Организация экономического сотрудничества и развития. Париж. 11 июня 2019 г. ISBN 978-92-64-54519-9. OCLC 1105926611. CS1 maint: другие (ссылка )
  5. ^Wirtz, Bernd У.; Вейерер, Ян С.; Гейер, Кэролин (2018-07-24). «Искусственный интеллект и государственный сектор - Applicati вопросы и вызовы ». Международный журнал государственного управления. 42 (7): 596–615. doi : 10.1080 / 01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602.
  6. ^Wirtz, Bernd W.; Weyerer, Jan C.; Штурм, Бенджамин Дж. (2020-04-15). «Темные стороны искусственного интеллекта: интегрированная структура управления искусственным интеллектом для государственного управления». Международный журнал государственного управления. 43 (9): 818–829. doi : 10.1080 / 01900692.2020.1749851. ISSN 0190-0692. S2CID 218807452.
  7. ^ Бредт, Стефан (04.10.2019). «Искусственный интеллект (AI) в финансовом секторе - потенциальные и общественные стратегии». Границы искусственного интеллекта. 2. DOI : 10.3389 / frai.2019.00016. ISSN 2624-8212.
  8. ^ Белая книга: об искусственном интеллекте - европейский подход к совершенству и доверию (PDF). Брюссель: Европейская комиссия. 2020. с. 1.
  9. ^Wirtz, Bernd W.; Мюллер, Вильгельм М. (2018-12-03). «Интегрированная структура искусственного интеллекта для государственного управления». Обзор государственного управления. 21 (7): 1076–1100. DOI : 10.1080 / 14719037.2018.1549268. ISSN 1471-9037. S2CID 158267709.
  10. ^Райзман, Диллон; Шульц, Джейсон; Кроуфорд, Кейт; Уиттакер, Мередит (2018). Алгоритмические оценки воздействия: практическая основа подотчетности государственных органов (PDF). Нью-Йорк: Институт AI Now.
  11. ^«На пути к ответственным инновациям в области искусственного интеллекта» (PDF). ЮНИКРИ. 2020. Проверено 9 августа 2020 г.
  12. ^ Gurkaynak, Gonenc; Йылмаз, Илай; Хаксевер, Гунес (2016). «Подавление искусственного интеллекта: опасности для человека». Компьютерное право и обзор безопасности. 32 (5): 749–758. doi : 10.1016 / j.clsr.2016.05.003. ISSN 0267-3649.
  13. ^Ипхофен, Рон; Критикос, Михалис (2019-01-03). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Современные социальные науки: 1–15. DOI : 10.1080 / 21582041.2018.1563803. ISSN 2158-2041.
  14. ^Принципы искусственного интеллекта: Рекомендации Министерства обороны по этическому использованию искусственного интеллекта (PDF). Вашингтон, округ Колумбия: Совет по инновациям в области обороны США. 2019. OCLC 1126650738.
  15. ^ Бабута Александр; Освальд, Марион; Джанжева, Арди (2020). Искусственный интеллект и национальная безопасность Великобритании: политические соображения (PDF). Лондон: Королевский институт объединенных служб.
  16. ^ «Роботы с оружием: рост автономных систем оружия». Snopes.com. 21 апреля 2017 г. Источник: 24 декабря 2017 г.
  17. ^Бенто, Лукас (2017). «Никаких деодандов: ответственность человека при использовании агрессивных интеллектуальных систем в соответствии с международным публичным правом». Депозитарий стипендий Гарварда. Проверено 14 сентября 2019 г.
  18. ^ «Илон Маск предупреждает губернаторов: искусственный интеллект представляет собой« экзистенциальный риск »». NPR.org. Проверено 27 ноября 2017 г.
  19. ^Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно». Хранитель. Проверено 27 ноября 2017 г.
  20. ^Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич». CNBC. Проверено 27 ноября 2017 г.
  21. ^Каплан, Андреас; Haenlein, Майкл (2019). «Siri, Siri, в моей руке: кто самый красивый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты. 62 : 15–25. дои : 10.1016 / j.bushor.2018.08.004.
  22. ^ Сотала, Кадж; Ямпольский, Роман V (2014-12-19). «Ответы на катастрофический риск ОИИ: опрос». Physica Scripta. 90 (1): 018001. doi : 10.1088 / 0031-8949 / 90/1/018001. ISSN 0031-8949.
  23. ^ Barrett, Anthony M.; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного суперинтеллекта для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта. 29 (2): 397–414. arXiv : 1607.07730. doi : 10.1080 / 0952813x.2016.1186228. ISSN 0952-813X. S2CID 928824.
  24. ^Бойд, Мэтью; Уилсон, Ник (2017-11-01). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?». Политика ежеквартально. 13 (4). doi : 10.26686 / pq.v13i4.4619. ISSN 2324-1101.
  25. ^Инновации, наука и экономическое развитие, Канада (2019-05-16). «Декларация Международной группы экспертов по искусственному интеллекту». gcnws. Проверено 29 марта 2020 г.
  26. ^«У мира есть план обуздать ИИ, но США это не нравится». Проводной. 2020-01-08. Проверено 29 марта 2020 г.
  27. ^ «Правила ИИ: время пришло?». Информационная неделя. Проверено 29 марта 2020 г.
  28. ^«Принципы ОЭСР в области искусственного интеллекта - Организация экономического сотрудничества и развития». www.oecd.org. Проверено 29 марта 2020 г.
  29. ^Заявление министров G20 по торговле и цифровой экономике (PDF). Город Цукуба, Япония: G20. 2019.
  30. ^«Международная комиссия по этике ИИ должна быть независимой». Природа. 572 (7770): 415. 21.08.2019. Bibcode : 2019Natur.572R.415.. doi : 10.1038 / d41586-019-02491-x. PMID 31435065.
  31. ^Руководство по закупкам AI (PDF). Колоньи / Женева: Всемирный экономический форум. 2019.
  32. ^"UNICRI :: Межрегиональный научно-исследовательский институт ООН по вопросам преступности и правосудия". www.unicri.it. Проверено 8 августа 2020 г.
  33. ^Юридическая библиотека Конгресса США. Глобальное управление правовых исследований, выдающий орган. Регулирование искусственного интеллекта в отдельных юрисдикциях. LCCN 2019668143. OCLC 1110727808.
  34. ^«Обсерватория инноваций в государственном секторе ОЭСР - стратегии ИИ и компоненты государственного сектора». Проверено 4 мая 2020 г.
  35. ^Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Здравствуйте, мир: искусственный интеллект и его использование в государственном секторе (PDF). Париж: Обсерватория инноваций в государственном секторе ОЭСР.
  36. ^Кэмпбелл, Томас А. (2019). Искусственный интеллект: обзор государственных инициатив (PDF). Эвергрин, Колорадо: FutureGrasp, LLC.
  37. ^Аноним (2018-04-25). «Коммуникационный искусственный интеллект для Европы». Формируя цифровое будущее Европы - Европейская комиссия. Проверено 5 мая 2020 г.
  38. ^smuhana (14 июня 2018 г.). «Группа экспертов высокого уровня по искусственному интеллекту». Формируя цифровое будущее Европы - Европейская комиссия. Проверено 5 мая 2020 г.
  39. ^Вайзер, Стефани (3 апреля 2019 г.). «Укрепление доверия к ИИ, ориентированному на человека». FUTURIUM - Европейская комиссия. Проверено 5 мая 2020 г.
  40. ^Аноним (26 июня 2019 г.). «Политические и инвестиционные рекомендации для надежного искусственного интеллекта». Формируя цифровое будущее Европы - Европейская комиссия. Проверено 5 мая 2020 г.
  41. ^ Европейская комиссия. (2020). Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию. OCLC 1141850140.
  42. ^Принципы этики данных (PDF). Лондон: Департамент цифровых технологий, культуры, СМИ и спорта. 2018.
  43. ^Лесли, Дэвид (2019-06-11). «Понимание этики и безопасности искусственного интеллекта: руководство по ответственному проектированию и внедрению систем искусственного интеллекта в государственном секторе». doi : 10.5281 / zenodo.3240529. S2CID 189762499. Cite journal требуется | journal =()
  44. ^«Интеллектуальные инструменты безопасности». Www.ncsc.gov.uk. Проверено 2020-04-28.
  45. ^Уивер, Джон Франк (2018-12-28). «Регулирование искусственного интеллекта в Соединенных Штатах». Справочник по исследованию права Искусственный интеллект: 155–212. doi : 10.4337 / 9781786439055.00018. ISBN 9781786439055.
  46. ^«О нас». Комиссия национальной безопасности на Искусственный интеллект. Проверено 2020-06-29.
  47. ^Стефаник, Элиз М. (2018-05-22). «HR5356 - 115-й Конгресс (2017–2018 гг.): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности». Www.congress.gov. Проверено 13 марта 2020 г.
  48. ^Генрих, Мартин (21 мая 2019 г.). "Текст - S.1558 - 116-й Конгресс (2019-2020 гг.): Искусственный Закон об интеллектуальной инициативе ». Www.congress.gov. Проверено 29 марта 2020 г.
  49. ^Шерер, Мэтью У. (2015).« Регулирование систем искусственного интеллекта: риски, проблемы, компетенции и Стратегии ». Серия рабочих документов SSRN. doi : 10.2139 / ssrn.2609777. ISSN 1556-5068.
  50. ^«Обновление AI: Белый дом издает 10 принципов регулирования искусственного интеллекта». Внутри Tech Media. 2020-01-14. Проверено 25 марта 2020 г.
  51. ^U.S. Лидерство в искусственном интеллекте: план федерального участия в разработке технических стандартов и связанных с ними инструментов (PDF). Национальный институт науки и технологий. 2019.
  52. ^Промежуточный отчет NSCAI для Конгресса. Комиссия национальной безопасности по искусственному интеллекту. 2019.
  53. ^Принципы искусственного интеллекта: Рекомендации Министерства обороны по этическому использованию искусственного интеллекта (PDF). Вашингтон, округ Колумбия: Совет по оборонным инновациям. 2020.
  54. ^«Предпосылки к смертоносным системам автономного оружия в КОО». Организация Объединенных Наций, Женева.
  55. ^«Руководящие принципы, утвержденные Группой правительственных экспертов по новым технологиям в области автономных систем летального оружия» (PDF). Организация Объединенных Наций, Женева.
  56. ^Баум, Сет (30.09.2018). "Противодействие дезинформации сверхразума". Информация. 9 (10): 244. doi : 10.3390 / info9100244. ISSN 2078-2489.
  57. ^«Взгляды стран на роботов-убийц» (PDF). Кампания по остановке роботов-убийц.
Последняя правка сделана 2021-06-03 11:58:33
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте