Этика искусственного интеллекта

редактировать
Этические проблемы, характерные для ИИ

Этика искусственного интеллекта является частью этики технологии, характерной для систем с искусственным интеллектом. Иногда его разделяют на озабоченность моральным поведением людей при проектировании, изготовлении, использовании и лечении систем с искусственным интеллектом и озабоченность поведением машин в машинной этике. Он также включает вопрос о возможной сингулярности из-за сверхразумного ИИ.

Содержание
  • 1 Этика роботов
    • 1.1 Права роботов
    • 1.2 Угроза человеческому достоинству
    • 1.3 Прозрачность, подотчетность и открытый исходный код
  • 2 Предубеждения в системах ИИ
  • 3 Ответственность за беспилотные автомобили
  • 4 Вооружение искусственного интеллекта
  • 5 Этика машин
  • 6 Сингулярность
  • 7 Этика ИИ организации
  • 8 В художественной литературе
  • 9 См. также
  • 10 Примечания
  • 11 Внешние ссылки
Этика роботов

Термин «этика роботов» (иногда «робоэтика») относится к мораль о том, как люди проектируют, конструируют, используют и обращаются с роботами. Он рассматривает как существа с искусственным интеллектом, которые могут быть использованы для нанесения вреда людям, так и то, как они могут быть использованы во благо людей.

Права роботов

«Права роботов» - это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, аналогичные правам человека или правам животных. Было высказано предположение, что права роботов, такие как право на существование и выполнение своей собственной миссии, могут быть связаны с обязанностью роботов служить человеку по аналогии с увязкой прав человека с обязанностями человека перед обществом. Они могут включать право на жизнь и свободу, свободу мысли и выражения мнений и равенство перед законом. Этот вопрос рассматривался Институтом будущего и UK Министерством торговли и промышленности.

. Эксперты расходятся во мнениях относительно того, потребуются ли конкретные и подробные законы в ближайшее время или благополучно в далеком будущем. Гленн МакГи сообщает, что к 2020 году могут появиться достаточно гуманоидные роботы. Рэй Курцвейл устанавливает дату на 2029 год. Другая группа ученых, собравшаяся в 2007 году, предположила, что должно пройти не менее 50 лет, прежде чем какая-либо достаточно продвинутая система будет существовать.

Правила конкурса на премию Лёбнера 2003 предусматривали возможность появления у роботов собственных прав:

61. Если в каком-либо конкретном году общедоступная заявка с открытым исходным кодом, поданная Университетом Суррея или Кембриджским центром, получает Серебряную или Золотую медаль, то медаль и денежная премия будут присуждены органу, ответственному за разработку тот вход. Если такой орган не может быть идентифицирован или если есть разногласия между двумя или более претендентами, Медаль и Денежное вознаграждение будут храниться в доверительном управлении до тех пор, пока Заявка не сможет законно владеть, либо в Соединенных Штатах Америки, либо в место проведения конкурса, денежная премия и золотая медаль.

В октябре 2017 года андроид София получил «почетное» гражданство в Саудовской Аравии, хотя некоторые наблюдатели сочли это скорее рекламным ходом, чем значимым юридическим признанием. Некоторые посчитали этот жест откровенным оскорблением прав человека и верховенства закона.

Философия сентиентизма предоставляет степень морального уважения всем живым существам, в первую очередь людям и большинство нечеловеческих животных. Если искусственный или инопланетный интеллект демонстрирует доказательства того, что они разумные, эта философия утверждает, что им следует проявить сострадание и предоставить им права.

Джоанна Брайсон утверждала, что создания ИИ, требующего прав, можно избежать и само по себе было бы неэтично, как бремя для агентов ИИ, так и для человеческого общества.

Угроза человеческому достоинству

Джозеф Вайценбаум в 1976 году утверждал, что технология искусственного интеллекта не должна использоваться для замены людей на должностях, требующих уважения и заботы, например:

объясняет Вайценбаум что мы требуем подлинного чувства сочувствия от людей на этих позициях. Если машины заменят их, мы окажемся отчужденными, обесцененными и разочарованными, поскольку система искусственного интеллекта не сможет имитировать сочувствие. Искусственный интеллект, если его использовать таким образом, представляет собой угрозу человеческому достоинству. Вайценбаум утверждает, что тот факт, что мы допускаем возможность машин в этих положениях, предполагает, что мы испытали «атрофию человеческого духа, которая возникает из-за того, что мы думаем о себе как о компьютерах».

Памела МакКордак возражает против этого, говоря для женщин и меньшинств: «Я бы предпочел рискнуть с помощью беспристрастного компьютера», указывая на то, что есть условия, при которых мы предпочли бы иметь автоматизированных судей и полицию, которые вообще не имеют личных интересов. Однако Каплан и Хенлайн подчеркивают, что системы искусственного интеллекта настолько умны, насколько умны данные, используемые для их обучения, поскольку они, по своей сути, не более чем причудливые машины для подгонки кривой: использование ИИ для поддержки решения суда может быть очень проблематичным, если прошлые постановления демонстрируют предвзятость по отношению к определенным группам, поскольку эти предубеждения формализуются и укореняются, что делает их еще более трудными для выявления и борьбы с ними. Основатель ИИ Джон Маккарти возражает против морализаторского тона критики Вайценбаума. «Когда морализаторство одновременно неистово и расплывчато, оно вызывает авторитарные злоупотребления», - пишет он.

Билл Хиббард пишет, что «Человеческое достоинство требует, чтобы мы стремились устранить наше незнание природы существования, и ИИ необходим для этого стремления».

Прозрачность, подотчетность и открытый исходный код

Билл Хиббард утверждает, что, поскольку ИИ окажет такое глубокое влияние на человечество, разработчики ИИ являются представителями человечества будущего и, таким образом, несут этическое обязательство быть прозрачным. в своих усилиях. Бен Герцель и Дэвид Харт создали OpenCog как фреймворк с открытым исходным кодом для разработки ИИ. OpenAI является некоммерческой Исследовательская компания ИИ, созданная Илоном Маском, Сэмом Альтманом и другими для разработки ИИ с открытым исходным кодом на благо человечества. Существует множество других разработок AI с открытым исходным кодом.

К сожалению, создание кода с открытым исходным кодом не делает его понятным, что по многим определениям означает, что код ИИ непрозрачен. IEEE прилагает усилия по стандартизации прозрачности ИИ. Усилия IEEE определяют несколько уровней прозрачности для разных пользователей. Кроме того, есть опасения, что раскрытие всех возможностей современного ИИ некоторым организациям может быть общественным злом, то есть причинить больше вреда, чем пользы. Например, Microsoft выразила озабоченность по поводу предоставления универсального доступа к своему программному обеспечению для распознавания лиц даже для тех, кто может за него заплатить. Microsoft опубликовала необычный блог на эту тему, в котором просила правительственное регулирование помочь в определении того, что нужно делать.

Не только компании, но и многие другие исследователи и гражданские защитники рекомендуют государственное регулирование как средство обеспечения прозрачности и через это - человеческая ответственность. AlgorithmWatch ведет обновленную коллекцию (список) этических норм искусственного интеллекта. Эта стратегия оказалась противоречивой, поскольку некоторые опасаются, что она замедлит темпы инноваций. Другие утверждают, что регулирование приводит к системной стабильности, более способной поддерживать инновации в долгосрочной перспективе. ОЭСР, UN, EU и многие страны в настоящее время работают над стратегиями регулирования ИИ и поиском соответствующих правовых рамок.

26 июня 2019 года Группа экспертов высокого уровня Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовал «Рекомендации по политике и инвестициям в области надежного искусственного интеллекта». Это второй результат AI HLEG после публикации в апреле 2019 г. «Руководящих принципов для надежного ИИ». Июньские рекомендации AI HLEG охватывают четыре основных темы: люди и общество в целом, исследования и научные круги, частный сектор и государственный сектор. Европейская комиссия утверждает, что «рекомендации HLEG отражают оценку как возможностей технологий искусственного интеллекта для стимулирования экономического роста, процветания и инноваций, так и связанных с этим потенциальных рисков», и заявляет, что ЕС стремится возглавить разработку политики, регулирующей ИИ.

Предубеждения в системах ИИ
File:Kamala Harris speaks about racial bias in artificial intelligence - 2020-04-23.ogvВоспроизвести медиа Сенатор США Камала Харрис говорит о расовой предвзятости в искусственном интеллекте.

ИИ становится все более неотъемлемой частью лица и системы распознавания голоса. Некоторые из этих систем имеют реальные последствия для бизнеса и напрямую влияют на людей. Эти системы уязвимы для предубеждений и ошибок, вносимых людьми. Кроме того, данные, используемые для обучения этих систем ИИ, могут иметь предвзятость. Например, все алгоритмы распознавания лиц, разработанные Microsoft, IBM и Face ++, имели предубеждения, когда дело доходило до определения пола людей. Эти системы искусственного интеллекта смогли определить пол белых мужчин более точно, чем пол мужчин с более темной кожей. Кроме того, исследование 2020 года, посвященное системам распознавания голоса от Amazon, Apple, Google, IBM и Microsoft, показало, что они имеют более высокий уровень ошибок при расшифровке голосов чернокожих людей, чем белых людей. Точно так же прекращение найма и найма ИИ компанией Amazon's.com Inc является еще одним примером, демонстрирующим, что ИИ не может быть справедливым. Алгоритм предпочитал больше кандидатов-мужчин, чем женщин. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период, которые поступали в основном от кандидатов-мужчин.

Предвзятость может закрасться в алгоритмы разными способами. Например, Фридман и Ниссенбаум выделяют три категории предвзятости в компьютерных системах: существующая предвзятость, техническая предвзятость и возникающая предвзятость. В очень влиятельной отрасли ИИ, известной как «обработка естественного языка», проблемы могут возникать из-за «корпуса текста» - исходного материала, который алгоритм использует для изучения взаимосвязей между разными словами.

Крупные компании, такие как IBM, Google и другие начали исследовать и устранять предвзятость. Одним из решений устранения предвзятости является создание документации для данных, используемых для обучения систем искусственного интеллекта.

Проблема предвзятости в машинном обучении, вероятно, станет более серьезной по мере того, как технология распространяется в критически важных областях, таких как медицина, право и поскольку все больше людей без глубоких технических знаний получают задание развернуть его. Некоторые эксперты предупреждают, что алгоритмическая предвзятость уже широко распространена во многих отраслях и что почти никто не пытается выявить или исправить ее.

Ответственность за беспилотные автомобили

Широкое использование частичного полностью беспилотные автомобили, кажется, неизбежны в будущем. Но полностью автономные технологии создают новые проблемы и проблемы. В последнее время разгорелись споры о юридической ответственности в отношении ответственной стороны, если эти автомобили попадут в аварию. В одном из отчетов беспилотный автомобиль наехал на пешехода, и возникла дилемма, кто виноват в аварии. Несмотря на то, что во время аварии водитель находился внутри машины, все органы управления находились в руках компьютеров.

В одном случае, произошедшем 19 марта 2018 года, беспилотный автомобиль Uber убил пешехода в Аризоне - Смерть Элейн Херцберг. Без дальнейшего расследования, как пешеход получил травму / смерть в таком случае. Людям важно пересмотреть ответственность не только за запчасти или полностью автоматизированные автомобили, но и за те заинтересованные стороны, которые должны нести ответственность за такую ​​ситуацию. В этом случае автоматизированные автомобили имеют функцию обнаружения ближайших возможных автомобилей и объектов, чтобы запустить функцию самоуправления, но у них не было возможности реагировать на находящегося поблизости пешехода в рамках своей первоначальной функции из-за того, что не будет людей на дороге в нормальном понимании. Это приводит к вопросу о том, должен ли водитель, пешеход, автомобильная компания или правительство нести ответственность в таком случае.

Согласно этой статье, при нынешней частично или полностью автоматизированной функции автомобили все еще остаются любительские, которые по-прежнему требуют от водителя внимательности и полного управления транспортным средством, поскольку все эти функции / особенности просто помогают водителю меньше пытаться во время вождения, но не отпускают. Таким образом, правительство должно нести наибольшую ответственность за текущую ситуацию в отношении того, как они должны регулировать автомобильную компанию и водителей, которые чрезмерно полагаются на функцию самоуправления, а также информировать их о том, что это всего лишь технологии, которые приносят удобство в жизнь людей, а не короткое -порез. Прежде чем автономные автомобили получат широкое распространение, эти проблемы необходимо решить с помощью новой политики.

Вооружение искусственного интеллекта

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда такие Роботам дается некоторая степень автономности. 31 октября 2019 года Совет по инновациям в обороне Министерства обороны США опубликовал проект отчета, в котором рекомендованы принципы этичного использования искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор всегда сможет изучить " черный ящик »и поймите процесс kill-chain. Однако серьезную озабоченность вызывает то, как отчет будет реализован. ВМС США финансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. Один исследователь утверждает, что автономные роботы могли бы быть более гуманными, поскольку они могли бы принимать решения более эффективно.

В течение последнего десятилетия проводились интенсивные исследования в области автономной энергетики с возможностью обучения, используя возложенные моральные обязанности. «Результаты могут быть использованы при разработке будущих военных роботов, чтобы контролировать нежелательные тенденции и возложить ответственность на роботов». С точки зрения консеквенциалистов, есть шанс, что у роботов разовьется способность принимать собственные логические решения о том, кого убивать, и поэтому должна быть установлена ​​моральная структура, которая ИИ не может переопределить.

В последнее время возникла критика по поводу разработки оружия искусственного интеллекта, в которое вошли идеи о захвате человечества роботами. Оружие искусственного интеллекта действительно представляет собой тип опасности, отличный от оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке оружия искусственного интеллекта. ВМС США недавно объявили о планах разработки автономных дронов, параллельно с аналогичными заявлениями России и Кореи соответственно. Из-за того, что оружие ИИ может стать более опасным, чем оружие, управляемое человеком, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» о запрете оружия ИИ. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что оружие ИИ представляет непосредственную опасность и что необходимо принять меры, чтобы избежать катастрофических бедствий в ближайшем будущем.

«Если какая-либо крупная военная держава продвинется вперед с разработкой оружия ИИ, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматами Калашникова завтрашнего дня », - говорится в петиции, в которую входит соучредитель Skype Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомский в качестве дополнительных сторонников борьбы с оружием искусственного интеллекта.

Королевский физик и астроном Сэр Мартин Рис предупредил о катастрофе например, «глупые роботы-мошенники или сеть, развивающая собственное мышление». Хью Прайс, коллега Риса из Кембриджа, высказал аналогичное предупреждение о том, что люди могут не выжить, когда разум «выйдет из ограничений биологии». Эти два профессора создали Центр изучения экзистенциального риска в Кембриджском университете в надежде избежать этой угрозы человеческому существованию.

Что касается потенциала систем, более умных, чем человек, быть Open Philanthropy Project, применяемый в военных целях, пишет, что эти сценарии «кажутся потенциально такими же важными, как риски, связанные с потерей контроля», но исследования, изучающие долгосрочное социальное воздействие ИИ, потратили относительно мало времени на эту озабоченность: «этот класс сценариев не был основным фокусом для организаций, которые были наиболее активны в этой области, таких как Исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI), и, кажется, было меньше анализа и споров относительно них ».

Машинная этика

Машинная этика (или машинная мораль) - область исследований, связанных с проектированием Искусственные моральные агенты (AMA), роботы или компьютеры с искусственным интеллектом которые ведут себя морально или как бы морально. Чтобы объяснить природу этих агентов, было предложено рассмотреть некоторые философские идеи, такие как стандартные характеристики действия, рационального действия, морального действия, и искусственное вмешательство, которые связаны с концепцией AMA.

Айзек Азимов рассматривал этот вопрос в 1950-х годах в своем I, Robot. По настоянию своего редактора Джона В. Кэмпбелла младшего он предложил Три закона робототехники для управления системами с искусственным интеллектом. Затем большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушатся, а где вызовут парадоксальное или непредвиденное поведение. Его работа предполагает, что никакой набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. Совсем недавно ученые и правительства многих стран оспорили идею о том, что ИИ можно привлечь к ответственности. Группа, созванная Соединенным Королевством в 2010 году, внесла поправки в законы Азимова, чтобы уточнить, что ответственность за ИИ либо его производители, либо его владелец / оператор.

В 2009 году во время эксперимента на Лаборатория интеллектуальных систем в Федеральной политехнической школе в Лозанне в Швейцарии, роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого) научились лгать друг другу в попытке накопить полезный ресурс.

Некоторые эксперты и ученые ставят под сомнение использование роботов в военном бою, особенно когда таким роботам дается некоторая степень автономности. ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. Президент Ассоциации развития искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Вернор Виндж предположил, что может наступить момент, когда некоторые компьютеры будут умнее людей. Он называет это «Сингулярностью ». Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для человека. Это обсуждается в философии под названием сингулярности. Исследовательский институт машинного интеллекта высказал предположение о необходимости создания «Дружественного ИИ », что означает, что достижения, которые уже происходят с ИИ, должны также включать в себя усилия по созданию ИИ по своей сути дружественным и гуманным..

В 2009 году ученые и технические эксперты приняли участие в конференции, организованной Ассоциацией по развитию искусственного интеллекта, чтобы обсудить потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.

Однако есть одна конкретная технология, которая действительно может дать возможность роботам с моральной компетентность к реальности. В статье о приобретении роботами моральных ценностей Найеф Аль-Родхан упоминает случай нейроморфных чипов, которые предназначены для обработки информации аналогично людям, нелинейно и с миллионами взаимосвязанных искусственные нейроны. Роботы со встроенными нейроморфными технологиями могут учиться и развивать знания уникальным человеческим способом. Неизбежно возникает вопрос об окружающей среде, в которой такие роботы будут узнавать о мире и чью мораль они унаследуют, - или если они в конечном итоге разовьют человеческие «слабости»: эгоизм, стремление к выживанию, колебания и т. Д.

В книге «Моральные машины: обучение роботов правильно от неправильного» Венделл Уоллах и Колин Аллен приходят к выводу, что попытки научить роботов правильному от неправильного, вероятно, продвинут понимание человеческой этики, мотивируя людей устранять пробелы в современной нормативной теории и предоставив платформу для экспериментальных исследований. В качестве одного из примеров он познакомил специалистов по нормативной этике с противоречивым вопросом о том, какие конкретные алгоритмы обучения использовать в машинах. Ник Бостром и Элиэзер Юдковски выступали за деревья решений (например, ID3 ) по нейронным сетям и генетические алгоритмы на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, stare decisis ), в то время как Крис Сантос-Ланг утверждал противоположное на том основании, что нормы любой возраст должен быть изменен, и естественная неспособность полностью удовлетворить эти конкретные нормы сыграла важную роль в снижении уязвимости людей для преступников "хакеров ".

Согласно отчету Центра по управлению ИИ за 2019 год. Оксфордский университет, 82% американцев считают, что с роботами и искусственным интеллектом следует обращаться осторожно. Высказывались опасения, касающиеся использования искусственного интеллекта в наблюдении и распространения фальшивого контента в Интернете (известные как глубокие подделки, когда они включают подделанные видеоизображения и аудио, созданные с помощью от AI) к кибератакам, нарушениям конфиденциальности данных, предвзятости при найме на работу, автономным транспортным средствам лесов и дронов, для которых не нужен человеческий контроллер.

Сингулярность

Многие исследователи утверждали, что благодаря «интеллектуальному взрыву» самосовершенствующийся ИИ может стать настолько мощным что люди не смогут помешать ему достичь своих целей. В своей статье «Этические проблемы передового искусственного интеллекта» и последующей книге Суперинтеллект: пути, опасности, стратегии философ Ник Бостром утверждает, что искусственный интеллект способен привести к вымиранию человечества. Он утверждает, что общий суперинтеллект был бы способен проявлять независимую инициативу и строить свои собственные планы, и поэтому его более уместно рассматривать как автономного агента. Поскольку искусственный интеллект не обязательно разделяет наши человеческие мотивационные тенденции, разработчики суперинтеллекта должны определить его исходные мотивы. Поскольку сверхразумный ИИ способен вызвать практически любой возможный результат и помешать любой попытке предотвратить реализацию его целей, может возникнуть множество неконтролируемых непредвиденных последствий. Он мог убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства.

Однако, вместо того, чтобы подавить человечество и привести к нашему уничтожению, Бостром также заявил, что суперинтеллект может помочь мы решаем множество сложных проблем, таких как болезни, бедность и разрушение окружающей среды, и можем помочь нам «улучшить» самих себя.

Сама сложность систем человеческих ценностей делает очень трудным сделать мотивацию ИИ дружественной к человеку. Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредоносных сценариев, которые соответствуют данной этической структуре, но не «здравому смыслу». Согласно Элиэзеру Юдковски, мало оснований предполагать, что искусственно созданный разум будет иметь такую ​​адаптацию. Такие исследователи искусственного интеллекта, как Стюарт Дж. Рассел и Билл Хиббард, предложили стратегии проектирования для разработки полезных машин.

Организации по этике ИИ

Существует множество организаций, занимающихся этикой и политикой в ​​области ИИ, как государственных и государственных, так и корпоративных и общественных.

Amazon, Google, Facebook, IBM и Microsoft создали некоммерческое партнерство, чтобы сформулировать наилучшие практики в области технологий искусственного интеллекта, расширяют понимание общественности и служат платформой для искусственного интеллекта. Apple присоединилась к команде в январе 2017 года. Корпоративные члены будут вносить финансовые и исследовательские вклады в группу, а также взаимодействовать с научным сообществом, чтобы привлечь ученых в состав совета директоров.

IEEE составил глобальную Инициатива по этике автономных и интеллектуальных систем, которая создает и пересматривает руководящие принципы с помощью общественного мнения и принимает в качестве членов многих профессионалов из своей организации и вне ее.

Традиционно правительство использовалось обществами для обеспечения соблюдения этических норм посредством законодательства и полиции. В настоящее время национальные правительства, а также транснациональные правительства и неправительственные организации прилагают много усилий для обеспечения этичного применения ИИ.

В художественной литературе

Фильм Тринадцатый этаж предлагает будущее, в котором смоделированные миры с разумными обитателями созданные компьютерными игровыми консолями в развлекательных целях. Фильм Матрица предлагает будущее, в котором доминирующими видами на планете Земля будут разумные машины, а к человечеству будут относиться с крайним видоизмом. Короткий рассказ «Планковское погружение » предлагает будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, и уместное различие между типами программного обеспечения является разумным и неразумным. Ту же идею можно найти в голограмме экстренной медицинской помощи из Starship Voyager, которая, по-видимому, является разумной копией сокращенного подмножества сознания его создателя, доктора Циммерман, который из лучших побуждений создал систему оказания медицинской помощи в экстренных случаях. В фильмах Двухсотлетний человек и ИИ рассматривается возможность появления разумных роботов, способных любить. Я, робот исследовал некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров.

Этика искусственного интеллекта - одна из нескольких ключевых тем в серии игр Mass Effect от BioWare. В нем исследуется сценарий, в котором цивилизация случайно создает ИИ путем быстрого увеличения вычислительной мощности с помощью глобальной нейронной сети. Это событие вызвало этический раскол между теми, кто считал, что наделение органических прав только что разумных гетов было целесообразным, и теми, кто продолжал рассматривать их как одноразовую технику и боролся за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями - еще одна постоянная тема на протяжении всей истории.

С течением времени дебаты все меньше и меньше сосредотачивались на возможности и больше на желательности, как подчеркивается в дебатах «космистов» и «терранов», инициированных Уго де Гарисом и Кевин Уорвик. Космист, по словам Уго де Гариса, на самом деле стремится создать более разумных преемников человеческого вида.

Эксперты Кембриджского университета утверждали, что ИИ изображается в художественной и документальной литературе исключительно как расовый Белый, что искажает восприятие его рисков и преимуществ.

См. Также
Исследователи
Организации
Notes
External links
Последняя правка сделана 2021-05-19 05:32:49
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте