Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования искусственный интеллект (AI); поэтому это связано с более широким регулированием алгоритмов. Нормативно-правовая база ИИ - это новая проблема в юрисдикциях по всему миру, в том числе в Европейском союзе. Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. Регулирование ИИ с помощью таких механизмов, как советы по обзору, также можно рассматривать как социальное средство решения проблемы управления ИИ.
Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования ИИ. Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. Соображения государственного управления и политики, как правило, сосредоточены на технических и экономических последствиях и на надежных и ориентированных на человека системах ИИ, хотя также рассматривается регулирование искусственного суперинтеллекта. Законодательство и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности. Подход государственного управления видит взаимосвязь между законом и регулированием ИИ, этикой ИИ и «обществом ИИ», определяемым как замещение и трансформация рабочей силы, социальное признание и доверие к ИИ, а также преобразование человека в машинное взаимодействие. Разработка стратегий государственного сектора для управления и регулирования ИИ считается необходимой на местном, национальном и международном уровнях и в различных областях, от управления государственными услугами и подотчетности до правоохранительных органов, финансового сектора, робототехники, автономных транспортных средств, военная и национальная безопасность, а также международное право.
В 2017 Илон Маск призвал к регулированию разработки ИИ. Согласно NPR, генеральный директор Tesla был «явно не в восторге» от того, что выступал за контроль со стороны правительства, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия контроля слишком высоки. : «Обычно правила устанавливаются, когда происходит куча плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующее агентство, которое регулирует эту отрасль. Это занимает вечность. В прошлом это было плохо, но не то, что представляет фундаментальный риск для существования цивилизации ». В ответ некоторые политики скептически оценили целесообразность регулирования технологии, которая все еще находится в стадии разработки. Отвечая как на предложения Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич утверждал, что ИИ находится в зачаточном состоянии и что еще слишком рано регулировать эту технологию. Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с какой-либо формой гарантии.
Регулирование ИИ можно рассматривать как позитивное социальное средство для решения проблемы управления ИИ, т. Е. Необходимости обеспечить долгосрочную полезную ИИ с другими социальными ответами, такими как бездействие или запрет восприниматься как непрактичный, а такие подходы, как расширение человеческих возможностей с помощью трансгуманизма, такие как интерфейсы мозг-компьютер, которые рассматриваются как потенциально дополняющие друг друга. Регулирование исследований в области общего искусственного интеллекта (AGI) фокусируется на роли контрольных комиссий, от университетов или корпораций до международных уровней, и на поощрении исследований в области безопасного ИИ, а также на возможности дифференцированного интеллектуального прогресса (определение приоритетов стратегии снижения риска по сравнению со стратегиями принятия риска при разработке ИИ) или проведение международного массового наблюдения для осуществления контроля над вооружениями AGI. Например, «AGI Nanny» - это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасного суперинтеллекта, а также для устранения других серьезных угроз человеческому благополучию, таких как подрывная деятельность. мировой финансовой системы, пока не будет безопасно создан сверхразум. Это влечет за собой создание более умной, чем человек, но не сверхинтеллектуальной системы общего искусственного интеллекта, подключенной к большой сети наблюдения, с целью наблюдения за человечеством и защиты его от опасностей ». Этически осведомленные ОИИ нацелены на их интеграцию с существующим человеческим обществом и могут быть разделены на соображения, связанные с их юридическим статусом и их моральными правами. Регулирование ИИ рассматривается как ограничительное, с риском предотвращения развития ОИИ.
Создание глобального совета по управлению разработкой искусственного интеллекта было предложено как минимум еще в 2017 году. В декабре 2018 года Канада и Франция объявили о планах создания Международной группы экспертов по искусственному интеллекту при поддержке G7. по образцу Международной группы экспертов по изменению климата для изучения глобального воздействия ИИ на людей и экономику и для управления развитием ИИ. В 2019 году Группа была переименована в Глобальное партнерство по ИИ, но это t будут одобрены США.
Рекомендации ОЭСР по ИИ были приняты в мае 2019 г., а Принципы ИИ G20 - в июне 2019 г. В сентябре 2019 г. Всемирный экономический форум опубликовал десять «Руководящие принципы государственных закупок AI». В феврале 2020 года Европейский Союз опубликовал свой проект стратегического документа по продвижению и регулированию ИИ. В Организации Объединенных Наций несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, в том числе Центр ИИ и робототехники ЮНИКРИ.
Нормативно-правовая и политическая среда для ИИ - новая проблема в юрисдикциях по всему миру, в том числе в Европейском Союзе. С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и программные документы по ИИ. Эти документы охватывают широкий круг тем, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура.
Регулирование ИИ в Китае в основном регулируется Государственный совет КНР от 8 июля 2017 г. «План развития искусственного интеллекта следующего поколения» (Документ Государственного совета № 35), в котором Центральный комитет Коммунистической партии Китая и Государственный совет Китайской Народной Республики призвал руководящие органы Китая содействовать развитию ИИ. Регулирование вопросов этического и правового обеспечения разработки ИИ только зарождается, но политика обеспечивает государственный контроль над китайскими компаниями и ценными данными, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных данных Китайской Народной Республики. стандарты для искусственного интеллекта, включая большие данные, облачные вычисления и промышленное программное обеспечение.
Европейский Союз (ЕС) руководствуется Европейской стратегией искусственного интеллекта, поддерживаемой -Экспертная группа уровня по искусственному интеллекту. В апреле 2019 года Европейская комиссия опубликовала «Руководящие принципы этики надежного искусственного интеллекта (ИИ)», вслед за этим в июне 2019 года были опубликованы рекомендации по политике и инвестициям в надежный искусственный интеллект.
2 февраля 2020 года Европейская комиссия опубликовала Белую книгу об искусственном интеллекте - европейский подход к совершенству и доверию. Белая книга состоит из двух основных строительных блоков: «экосистемы передового опыта» и «экосистемы доверия». В последнем излагается подход ЕС к нормативной базе ИИ. В предлагаемом подходе Комиссия различает приложения ИИ с «высоким риском» и «без риска». Только первое должно входить в сферу будущей нормативной базы ЕС. Будет ли это так, в принципе можно определить по двум совокупным критериям, касающимся критических секторов и критического использования. Для приложений искусственного интеллекта с высоким уровнем риска рассматриваются следующие ключевые требования: требования к обучающим данным; данные и учет; информационные обязанности; требования к надежности и точности; человеческий надзор; и особые требования для конкретных приложений искусственного интеллекта, таких как те, которые используются для удаленной биометрической идентификации. Приложения ИИ, которые не квалифицируются как «высокорисковые», могут регулироваться схемой добровольной маркировки. Что касается соответствия и правоприменения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, инспекции или сертификации» и / или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в виде основы для сотрудничества национальных компетентных органов могла бы облегчить внедрение нормативной базы.
Великобритания поддержала применение и развитие ИИ в бизнесе через Стратегию цифровой экономики на 2015-2018 годы,, представленную в начале 2015 года компанией Innovate UK как часть цифровой стратегии Великобритании. В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта дал рекомендации по этике данных и Институт Алана Тьюринга по ответственному проектированию и внедрению систем искусственного интеллекта. Что касается кибербезопасности, Национальный центр кибербезопасности выпустил руководство по «Интеллектуальным инструментам безопасности».
Обсуждение регулирования ИИ в США включены такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, в том числе то, какое агентство должно руководить, регулирующие и руководящие полномочия этого агентства и как обновлять нормативные акты в условиях быстро меняющихся технологий, а также роли правительств и судов штатов.
Первым основным отчетом был Национальный план стратегических исследований и разработок в области искусственного интеллекта. 13 августа 2018 г., раздел 1051 Закона 2019 финансовый год Закон Джона С. Маккейна о полномочиях национальной обороны (PL 115-232) учредил Комиссию национальной безопасности по искусственному интеллекту «для рассмотрения методов и средств, необходимых для продвижения разработки. искусственного интеллекта, Mac hine обучение и связанные с ним технологии для всестороннего удовлетворения потребностей национальной безопасности и обороны Соединенных Штатов ». Управление регулированием ИИ, связанного с безопасностью, обеспечивает Комиссия национальной безопасности по искусственному интеллекту. Закон об инициативе в области искусственного интеллекта (S.1558) - это предлагаемый законопроект, который установит федеральную инициативу, направленную на ускорение исследований и разработок в области ИИ, в частности, для экономической и национальной безопасности Соединенных Штатов.
На 7 января 2019 г., следуя исполнительному указу о поддержании американского лидерства в области искусственного интеллекта, Управление науки и технологий Белого дома выпустило проект Руководства по регулированию приложений искусственного интеллекта, который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ. В ответ Национальный институт стандартов и технологий выпустил документ с изложением позиции, Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет, а Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ.
Правовые вопросы, связанные с летальными автономными системами оружия (LAWS), в частности соблюдение законов вооруженных конфликтов, обсуждались на ООН с 2013 г. в контексте Конвенции о конкретных видах обычного оружия. Примечательно, что в 2014, 2015 и 2016 годах состоялись неофициальные встречи экспертов, и была назначена Группа правительственных экспертов (ГПЭ) для дальнейшего обсуждения этого вопроса в 2016 году. Набор руководящих принципов по ЗАКОНОДАТЕЛЬСТВУ, утвержденных ГПЭ по ЗАКОНОДАТЕЛЬСТВУ, был принят в 2018.
В 2016 году Китай опубликовал позиционный документ, в котором ставит под сомнение адекватность существующего международного права для решения вопроса о возможности создания полностью автономного оружия, став первым постоянным членом ООН Совета Безопасности, затронувшим вопрос проблема и приводит к предложениям по глобальному регулированию. Возможность моратория или упреждающего запрета на разработку и использование АСОЛД также неоднократно поднималась другими национальными делегациями в Конвенции о конкретных видах обычного оружия, и за это решительно выступает Кампания по остановке роботов-убийц - коалиция неправительственных организаций.
| journal =
()