Машинная этика

редактировать

Машинная этика (или машинная мораль, вычислительная мораль или вычислительная этика) является частью этики искусственного интеллекта, связанной с добавлением или обеспечением морального поведения созданных человеком машин, использующих искусственный интеллект, иначе известных как агенты искусственного интеллекта. Машинная этика отличается от других этических областей, связанных с инженерией и технологиями. Машинную этику не следует путать с компьютерной этикой, которая фокусируется на использовании компьютеров людьми. Также следует отличать от философии техники., который касается более грандиозных социальных эффектов технологий.

СОДЕРЖАНИЕ

  • 1 История
  • 2 Определения
  • 3 Направления машинной этики
    • 3.1 Задача управления AI
    • 3.2 Алгоритмы и обучение
    • 3.3 Автономные системы вооружения
    • 3.4 Интеграция общего искусственного интеллекта в общество
    • 3.5 Предвзятость машинного обучения
  • 4 Этические рамки и практики
    • 4.1 Практики
    • 4.2 Подходы
  • 5 В художественной литературе
  • 6 Связанные поля
  • 7 См. Также
  • 8 Примечания
  • 9 Внешние ссылки
  • 10 Ссылки
  • 11 Дальнейшее чтение

История

До 21 века этика машин в значительной степени была предметом научной фантастики, в основном из-за ограничений вычислительной техники и искусственного интеллекта (ИИ). Хотя определение «машинной этики» с тех пор эволюционировало, этот термин был придуман Митчеллом Уолдропом в статье журнала AI Magazine 1987 года «Вопрос ответственности»:

Однако одна вещь, которая очевидна из приведенного выше обсуждения, заключается в том, что интеллектуальные машины будут воплощать ценности, предположения и цели, независимо от того, намерены ли их программисты сознательно или нет. Таким образом, по мере того, как компьютеры и роботы становятся все более и более умными, это становится императивом. что мы тщательно и подробно думаем о том, что представляют собой эти встроенные ценности. Возможно, нам действительно нужны теория и практика машинной этики в духе трех законов робототехники Азимова ».

В 2004 г. на семинаре AAAI по агентским организациям: теория и практика была представлена ​​книга « На пути к машинной этике», на которой были изложены теоретические основы машинной этики.

Именно на Симпозиуме по машинной этике AAAI осенью 2005 г. исследователи впервые встретились, чтобы обсудить реализацию этического аспекта в автономных системах. Разнообразные точки зрения на эту зарождающуюся область можно найти в сборнике «Машинная этика», который был подготовлен на симпозиуме по машинной этике, организованном AAAI осенью 2005 года.

В 2007 году в журнале AI Magazine была опубликована статья « Машинная этика: создание этического интеллектуального агента», в которой обсуждалась важность машинной этики, потребность в машинах, которые явно отражают этические принципы, и проблемы, с которыми сталкиваются те, кто занимается машинной этикой. Он также продемонстрировал, что машина может, по крайней мере в ограниченной области, абстрагировать этический принцип из примеров этических суждений и использовать этот принцип для управления своим собственным поведением.

В 2009 году издательство Oxford University Press опубликовало Moral Machines, Teaching Robots Right from Wrong, которую рекламировало как «первую книгу, посвященную проблеме создания искусственных агентов морали, глубоко исследующих природу принятия человеческих решений и этики». Он процитировал около 450 источников, около 100 из которых касались основных вопросов машинной этики.

В 2011 году издательство Cambridge University Press опубликовало сборник эссе о машинной этике под редакцией Майкла и Сьюзан Ли Андерсон, которые также редактировали специальный выпуск IEEE Intelligent Systems по этой теме в 2006 году. Сборник состоит из проблем, связанных с добавлением этических принципов к машинам..

В 2014 году в США Управление военно - морских исследований объявила, что она будет распространять $ 7,5 млн в виде грантов в течение пяти лет университетских исследователей для изучения вопросов станочного этики применительно к автономным роботам, и Ник Бостром «s суперинтеллекта: Paths, опасности, стратегии, которые поднял машинную этику как «самую важную... проблему, с которой когда-либо сталкивалось человечество», заняв 17-е место в списке самых продаваемых научных книг New York Times.

В 2016 году Европейский парламент опубликовал документ (22-страничный PDF-файл), чтобы побудить Комиссию рассмотреть вопрос о правовом статусе роботов, как это более кратко описано в прессе. В этот документ включены разделы, касающиеся юридических обязательств роботов, в которых ответственность утверждается как пропорциональная уровню автономии роботов. В документе также ставится под сомнение количество рабочих мест, которые могут быть заменены роботами с искусственным интеллектом.

Определения

Джеймс Х. Мур, один из первых теоретиков в области компьютерной этики, определяет четыре типа этических роботов. Как обширный исследователь философии искусственного интеллекта, философии разума, философии науки и логики, Мур определяет машины как этические агенты воздействия, неявные этические агенты, явные этические агенты или полные этические агенты. На машине может быть более одного типа агентов.

  • Агенты этического воздействия: это машинные системы, которые оказывают этическое воздействие независимо от того, преднамеренно или нет. В то же время эти агенты могут действовать неэтично. Мур приводит гипотетический пример, названный «агентом Гудмана» в честь философа Нельсона Гудмана. Агент Гудмана сравнивает даты, но обнаруживает ошибку тысячелетия. Эта ошибка возникла из-за того, что программисты представляли даты только с двумя последними цифрами года. Таким образом, любые даты после 2000 года будут ошибочно рассматриваться как более ранние, чем даты конца двадцатого века. Таким образом, агент Гудмана был агентом этического воздействия до 2000 года, а затем - агентом неэтичного воздействия.
  • Неявные этические агенты: из соображений безопасности человека эти агенты запрограммированы на отказоустойчивость или встроенные достоинства. Они не совсем этичны по своей природе, а скорее запрограммированы на избежание неэтичных результатов.
  • Явные этические агенты: это машины, которые способны обрабатывать сценарии и действовать в соответствии с этическими решениями. Машины, у которых есть алгоритмы этичного поведения.
  • Полные этические агенты: эти машины похожи на явных этических агентов в способности принимать этические решения. Однако они также содержат человеческие метафизические черты. (т.е. иметь свободную волю, сознание и намерение )

(См. Искусственные системы и моральная ответственность. )

Фокусы машинной этики

Проблема управления ИИ

Основные статьи: Экзистенциальный риск от общего искусственного интеллекта и проблема управления ИИ

Некоторые ученые, такие как философ Ник Бостром и исследователь искусственного интеллекта Стюарт Рассел, утверждают, что если ИИ превзойдет человечество в целом по интеллекту и станет « сверхразумным », то этот новый сверхразум может стать мощным и трудноуправляемым: так же, как зависит судьба горной гориллы. от человеческой доброй воли, поэтому судьба человечества может зависеть от действий будущего машинного суперинтеллекта. В своих соответствующих книгах « Суперинтеллект» и « Совместимость с людьми» оба ученых утверждают, что, хотя будущее ИИ остается неуверенным, риск для человечества достаточно велик, чтобы заслужить серьезные действия в настоящем.

Это представляет собой проблему управления ИИ : как создать интеллектуального агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания сверхразума, который нанесет вред его создателям. Опасность неправильного проектирования контроля «с первого раза» состоит в том, что суперинтеллект может захватить власть над окружающей средой и помешать людям выключить ее. Потенциальные стратегии управления ИИ включают «контроль возможностей» (ограничение способности ИИ влиять на мир) и «мотивационный контроль» (один из способов создания ИИ, цели которого соответствуют человеческим или оптимальным ценностям ). Существует ряд организаций, изучающих проблему управления ИИ, в том числе Институт будущего человечества, Институт исследований машинного интеллекта, Центр искусственного интеллекта, совместимого с человеком, и Институт будущего жизни.

Алгоритмы и обучение

Парадигмы ИИ обсуждались, особенно в отношении их эффективности и предвзятости. Ник Бостром и Элиэзер Юдковски выступали за деревья решений (такие как ID3 ) по сравнению с нейронными сетями и генетическими алгоритмами на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, пристальный взгляд ). В отличие от этого, Крис Сантос-Ланг выступал в пользу нейронных сетей и генетических алгоритмов на том основании, что нормы любого возраста должны быть изменены, и что естественная неспособность полностью удовлетворить эти конкретные нормы была важна для того, чтобы сделать людей менее уязвимыми, чем машины. преступным « хакерам ».

В 2009 году в качестве эксперимента в лаборатории интеллектуальных систем в политехнической школе Fédérale в Лозанне в Швейцарии, роботы ИИ были запрограммированы сотрудничать друг с другом и поставлена задача с целью поисков полезного ресурса, избегая при этом ядовитый ресурс. Во время эксперимента роботы были сгруппированы в кланы, и цифровой генетический код успешных членов был использован для следующего поколения, типа алгоритма, известного как генетический алгоритм. После 50 последовательных поколений в ИИ, члены одного клана обнаружили, как отличить полезный ресурс от ядовитого. Затем роботы научились лгать друг другу, пытаясь сохранить полезный ресурс у других роботов. В том же эксперименте те же роботы ИИ также научились вести себя самоотверженно и сигнализировали об опасности другим роботам, а также умерли за счет спасения других роботов. Значение этого эксперимента было оспорено специалистами по машинной этике. В эксперименте Ecole Polytechnique Fédérale цели роботов были запрограммированы как «конечные». Напротив, человеческие мотивы обычно требуют бесконечного обучения.

Автономные системы вооружения

Основная статья: Смертельное автономное оружие См. Также: Slaughterbots

В 2009 году ученые и технические эксперты посетили конференцию, на которой обсудили потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они смогут стать самодостаточными и иметь возможность принимать свои собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.

Некоторые эксперты и ученые ставят под сомнение использование роботов для ведения боевых действий, особенно когда таким роботам дается некоторая степень автономности. ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. Президент Ассоциации развития искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Интеграция общего искусственного интеллекта с обществом

Предварительная работа была проведена по методам интеграции искусственного общего интеллекта (полных этических агентов, как определено выше) с существующими правовыми и социальными структурами. Подходы сосредоточены на учете их правового положения и прав.

Предвзятость машинного обучения

Дополнительная информация: Алгоритмическая систематическая ошибка.

Алгоритмы больших данных и машинного обучения стали популярными во многих отраслях, включая интернет-рекламу, кредитные рейтинги и уголовные наказания, с обещанием обеспечить более объективные, основанные на данных результаты, но были определены как потенциальный источник сохранения социального неравенства и дискриминации.. 2015 исследование показало, что женщины были менее вероятно, будут показаны с высоким уровнем дохода объявления Работа в Google «s AdSense. Другое исследование показало, что служба доставки Amazon в тот же день была намеренно недоступна в районах проживания чернокожих. И Google, и Amazon не смогли выделить эти результаты в одну проблему, а вместо этого объяснили, что результаты были результатом используемых ими алгоритмов черного ящика.

Судебная система США начала использовать программное обеспечение для количественной оценки рисков при принятии решений, связанных с освобождением людей под залог и вынесением приговора, чтобы быть более справедливыми и снизить и без того высокий уровень тюремного заключения. Эти инструменты анализируют криминальное прошлое обвиняемого среди других атрибутов. В исследовании 7000 человек, арестованных в округе Бровард, штат Флорида, только 20% лиц, которым было предсказано совершение преступления с использованием системы оценки риска округа, совершили преступление. В отчете ProPublica за 2016 год были проанализированы оценки риска рецидивизма, рассчитанные с помощью одного из наиболее часто используемых инструментов, системы Northpointe COMPAS, и рассмотрены результаты за два года. В отчете было обнаружено, что только 61% из тех, кто считался повышенным риском, совершили дополнительные преступления во время. В отчете также отмечалось, что обвиняемые афроамериканцы с гораздо большей вероятностью получали оценки высокого риска по сравнению с их белыми обвиняемыми коллегами.

В 2016 году рабочая группа администрации Обамы по большим данным, которая контролирует различные нормативно-правовые базы больших данных, выпустила отчеты, в которых аргументировалась «возможность кодирования дискриминации в автоматизированных решениях» и содержался призыв «предусмотреть равные возможности» для таких приложений, как кредитные ресурсы. подсчет очков. Отчеты поощряют дискуссии среди политиков, граждан и ученых, но признают, что у них нет потенциального решения для кодирования предвзятости и дискриминации в алгоритмических системах.

Этические рамки и практики

Практики

В марте 2018 года, стремясь снять растущую обеспокоенность по поводу воздействия машинного обучения на права человека, Всемирный экономический форум и Совет глобального будущего по правам человека опубликовали официальный документ с подробными рекомендациями о том, как лучше всего предотвратить дискриминационные результаты в машинном обучении. Всемирный экономический форум разработал четыре рекомендации, основанные на Руководящих принципах ООН в области прав человека, чтобы помочь устранить и предотвратить дискриминационные результаты в машинном обучении.

Рекомендации Всемирного экономического форума заключаются в следующем:

  1. Активное включение: разработка и проектирование приложений для машинного обучения должны активно искать разнообразие входных данных, особенно норм и ценностей конкретных групп населения, на которые влияют выходные данные систем искусственного интеллекта.
  2. Справедливость: люди, участвующие в концептуализации, разработке и внедрении систем машинного обучения, должны подумать, какое определение справедливости лучше всего применимо к их контексту и применению, и расставить приоритеты в архитектуре системы машинного обучения и ее оценочных показателях.
  3. Право на понимание: участие систем машинного обучения в принятии решений, затрагивающих права человека, должно быть раскрыто, и системы должны иметь возможность предоставлять объяснение их принятия решений, понятное конечным пользователям и доступное для проверки компетентным человеческим органом. Там, где это невозможно и права поставлены на карту, лидеры в разработке, развертывании и регулировании технологии машинного обучения должны задаться вопросом, следует ли ее использовать.
  4. Доступ к возмещению ущерба: руководители, дизайнеры и разработчики систем машинного обучения несут ответственность за выявление потенциальных негативных воздействий своих систем на права человека. Они должны предоставить видимые возможности для возмещения ущерба для тех, кто пострадал от разнородных воздействий, и установить процессы для своевременного устранения любых дискриминационных результатов.

В январе 2020 года Центр Интернета и общества им. Беркмана Кляйна Гарвардского университета опубликовал метаисследование 36 известных наборов принципов ИИ, определяющих восемь ключевых тем: конфиденциальность, подотчетность, безопасность и защищенность, прозрачность и объяснимость, справедливость и недискриминация, человеческий контроль над технологиями, профессиональная ответственность и продвижение человеческих ценностей. Аналогичное мета-исследование было проведено исследователями из Швейцарского федерального технологического института в Цюрихе в 2019 году.

Подходы

Было сделано несколько попыток сделать этику вычислимой или, по крайней мере, формальной. В то время как « Три закона робототехники» Айзека Азимова обычно не считаются подходящими для искусственного морального агента, было изучено, можно ли использовать категорический императив Канта. Однако было указано, что человеческие ценности в некоторых аспектах очень сложны. Один из способов явно преодолеть эту трудность - получить человеческие ценности напрямую от людей через какой-то механизм, например, изучив их. Другой подход состоит в том, чтобы основывать текущие этические соображения на предыдущих аналогичных ситуациях. Это называется казуистикой, и ее можно реализовать с помощью исследований в Интернете. Консенсус из миллиона прошлых решений приведет к новому решению, зависящему от демократии. Однако это может привести к решениям, отражающим предубеждения и неэтичное поведение, проявляемое в обществе. Негативные эффекты этого подхода можно увидеть в Tay (бот) от Microsoft, где чаттер- бот научился повторять расистские и сексуально заряженные сообщения, отправленные пользователями Twitter.

В одном мысленном эксперименте читателю предстает джин-голем с неограниченными способностями. Этот джин заявляет, что он вернется через 50 лет, и требует, чтобы ему был предоставлен определенный набор моральных принципов, в соответствии с которыми он затем немедленно начнет действовать. Цель этого эксперимента - начать дискуссию о том, как лучше всего справиться с определением полного набора этических норм, которые компьютеры могут понять.

В художественной литературе

В научной фантастике, фильмы и романы играли с идеей разумности роботов и машин.

Чаппи Нила Бломкампа (2015) разыграл сценарий возможности перенести свое сознание в компьютер. В фильме « Ex Machina» (2014) Алекса Гарланда рассказывается об андроиде с искусственным интеллектом, который проходит разновидность теста Тьюринга - теста, который проводят для машины, чтобы определить, можно ли ее поведение отличить от человеческого. Такие работы, как « Терминатор» (1984) и «Матрица» (1999), включают концепцию машин, включающих своих людей-хозяев (см. « Искусственный интеллект» ).

Айзек Азимов рассматривал этот вопрос в 1950-х годах в « Я, Робот». По настоянию своего редактора Джона У. Кэмпбелла-младшего он предложил Три закона робототехники для управления системами с искусственным интеллектом. Затем большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушатся, а где приведут к парадоксальному или непредвиденному поведению. Его работа предполагает, что никакой набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. В романе Филипа К. Дика « Мечтают ли андроиды об электрических овцах?» (1968) он исследует, что значит быть человеком. В своем постапокалиптическом сценарии он сомневался, была ли эмпатия полностью человеческой характеристикой. Его история легла в основу фантастического фильма « Бегущий по лезвию» (1982).

Связанные поля

Смотрите также

Заметки

Внешние ссылки

Рекомендации

дальнейшее чтение

Последняя правка сделана 2023-12-31 11:58:00
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте