Этика роботов

редактировать

Этика роботов, иногда известная как «робоэтика », касается этических проблем, возникающих с роботами, например, представляют ли роботы угрозу для людей в долгосрочной или краткосрочной перспективе, являются ли некоторые виды использования роботов проблематичными (например, в здравоохранении или в качестве «роботов-убийц » на войне), и как следует проектировать роботов. таким образом, что они действуют «этично» (эта последняя проблема также называется машинной этикой ). В качестве альтернативы, робоэтика относится конкретно к этике человеческого поведения по отношению к роботам, поскольку роботы становятся все более продвинутыми. Этика роботов - это подраздел этики технологий, в частности информационных технологий, и имеет тесные связи с правовыми, а также социально-экономическими проблемами. Исследователи из разных областей начинают решать этические вопросы о создании роботизированных технологий и их внедрении в обществе таким образом, чтобы по-прежнему обеспечивать безопасность человечества.

Хотя проблемы так же стары, как слово робот, серьезные академические дискуссии начались примерно в 2000 году. Этика роботов требует совместной приверженности экспертов нескольких дисциплин, которые должны адаптировать законы и правила к проблемам, возникающим в результате научных и технологических достижений в робототехнике и искусственном интеллекте. Основные области этики роботов: робототехника, информатика, искусственный интеллект, философия, этика, теология, биология, физиология, когнитивная наука, нейробиология, право, социология, психология и промышленный дизайн.

Содержание
  • 1 История и события
  • 2 В популярной культуре
  • 3 Этика и закон роботов
  • 4 См. Также
  • 5 Примечания
  • 6 Ссылки
  • 7 Дополнительная литература
  • 8 Внешние ссылки
История и события

Некоторые из центральных обсуждений этики в отношении лечения нечеловеческих или небиологических вещей и их потенциальной «духовности». Еще одна центральная тема связана с разработкой машин и, в конечном итоге, роботов, эта философия также была применена к робототехнике. Одной из первых публикаций, непосредственно посвященных и заложивших основы этики роботов, была Обход (рассказ), научно-фантастический рассказ, написанный Исааком Азимовым в 1942 году, в котором рассказывалось о его хорошо известном Три закона робототехники. Эти три закона непрерывно изменялись Азимовым, а четвертый, или нулевой, закон, в конце концов, был добавлен перед первыми тремя в контексте его научной фантастики. Кратковременный термин «робоэтика», скорее всего, был придуман Джанмарко Веруджио.

Важным событием, вызвавшим озабоченность в отношении робоэтики, стал Первый международный симпозиум по робототехнике в 2004 году, организованный совместными усилиями Scuola di Robotica, Лаборатории искусств. из Scuola Superiore Sant'Anna, Пиза, и Теологического института Понтифисской Академии делла Санта-Кроче, Рим. «После двух дней интенсивных дебатов антрополог Даниэла Черки определила три основные этические позиции, вытекающие из двух дней интенсивных дебатов:

  1. Те, кто не интересуется этикой. Они считают, что их действия являются строго техническими, и не думают, что социальная или моральная ответственность в своей работе.
  2. Те, кого интересуют краткосрочные этические вопросы. В соответствии с этим профилем вопросы выражаются в терминах «хорошо» или «плохо» и относятся к некоторым культурные ценности. Например, они считают, что роботы должны придерживаться социальных условностей. Это будет включать «уважение» и помощь людям в различных областях, таких как выполнение законов или помощь пожилым людям (такие соображения важны, но мы должны помнить что ценности, используемые для определения «плохого» и «хорошего», относительны. Это современные ценности промышленно развитых стран).
  3. Те, кто думает с точки зрения долгосрочных этических вопросов, о, для например, «Цифровой делить »между Югом и Севером, или молодыми и пожилыми. Они осознают разрыв между промышленно развитыми и бедными странами и задаются вопросом, не должны ли первые изменить свой способ разработки робототехники, чтобы быть более полезными для Юга. Они не формулируют явно вопрос для чего, но мы можем считать, что это неявно ".

Это некоторые важные события и проекты в области этики роботов. Дальнейшие события в этой области объявляются тематической группой euRobotics ELS, а также RoboHub :

Компьютерный ученый Вирджиния Дигнум отметила в мартовском выпуске журнала Этика и информационные технологии за март 2018 года, что общее отношение общества к искусственному интеллекту (ИИ) в целом Современная эпоха сместилась от рассмотрения ИИ как инструмента к рассмотрению его как интеллектуального «товарища по команде». В той же статье она оценила, что в отношении ИИ у этических мыслителей есть три цели, каждая из которых, как она утверждает, могут быть достигнуты в современную эпоху с помощью тщательного обдумывания и реализации. Три этические цели заключаются в следующем:

  • Этика Деса ign (техническая / алгоритмическая интеграция возможностей этического мышления как часть поведения искусственной автономной системы - см. Машинная этика );
  • Этика в дизайне (нормативные и инженерные методы, поддерживающие анализ и оценку этических последствий Системы искусственного интеллекта, поскольку они интегрируют или заменяют традиционные социальные структуры); и
  • Этика проектирования (кодексы поведения, стандарты и процессы сертификации, которые обеспечивают честность разработчиков и пользователей при исследовании, проектировании, конструировании, использовании и управлении системами искусственного интеллекта - см. Этика роботов и Закон ниже).
В массовой культуре

Робоэтика как наука или философская тема стала обычной темой в научно-фантастической литературе и фильмах. Один фильм, который, как можно утверждать, укоренился в поп-культуре и изображает мрачное будущее использования роботизированного ИИ, - это Матрица, изображающая будущее, в котором люди и разумный разумный ИИ борются за контроль над планетой Земля, что приводит к разрушению. большей части человечества. Анимационный фильм, основанный на «Матрице», Animatrix, в значительной степени сфокусирован на потенциальных этических проблемах и неуверенности в отношениях между людьми и роботами. Фильм разбит на короткие рассказы. Анимационные шорты Animatrix также названы в честь вымышленных рассказов Айзека Азимова.

Другой аспект робоэтики связан с обращением людей с роботами и был исследован в многочисленных фильмах и телешоу. Одним из таких примеров является Star Trek: The Next Generation, в котором одним из главных персонажей является гуманоидный андроид по имени Data. По большей части ему доверяют критически важную работу, но его способность адаптироваться к другим живым существам часто ставится под сомнение. Совсем недавно в фильме Ex Machina и телешоу Westworld эти этические вопросы были рассмотрены совершенно напрямую, изображены гиперреалистичные роботы, с которыми люди относятся как к несущественным товарам. Вопросы, касающиеся обращения с искусственными существами, также были ключевым компонентом Blade Runner (франшиза) на протяжении более 50 лет. В таких фильмах, как Она, человеческие отношения с роботами стали еще глубже, убрав физический аспект и сфокусировавшись на эмоциях.

Хотя этическое поведение самих роботов не является частью робоэтики как таковой, они также были объединяющей проблемой робоэтики в массовой культуре. Серия Terminator фокусируется на роботах, управляемых сознательной программой ИИ, без ограничений по уничтожению своих врагов. Эта серия также имеет тот же архетип, что и серия «Матрица», где управление взяли на себя роботы. Другой известный случай в поп-культуре роботов или ИИ без запрограммированной этики или морали - это HAL 9000 в серии Space Odyssey, где HAL (компьютер с расширенными возможностями ИИ, который отслеживает и помогает людям космическая станция) убивает всех людей на борту, чтобы обеспечить успех назначенной миссии после того, как его собственная жизнь находится под угрозой.

Этика и закон роботов

С современными технологическими проблемами, возникающими по мере того, как общество настаивает, одна из тем, требующих тщательного изучения, - это законная этика роботов. Ученые обсуждают вопрос о том, как правительство могло бы создать законодательство, основанное на этике и законах роботов. Эти вопросы задают два ученых: профессор права Вашингтонского университета в Сент-Луисе Нил М. Ричардс, а также доцент кафедры информатики Вашингтонского университета в Сент-Луисе Уильям Д. Смарт. В своей статье «Как роботы должны думать о законе» они выдвигают четыре основных утверждения, касающихся этики и закона роботов. В основе их аргументов лежит определение роботов как «небиологических автономных агентов, которые, по нашему мнению, отражают суть регуляторных и технологических проблем, которые представляют роботы, и которые могут быть полезны в качестве основы регулирования». Во-вторых, пара исследует будущие передовые возможности роботов примерно через десятилетия. В их третьем заявлении утверждается, что между юридическими вопросами, связанными с этикой роботов и юридическим опытом, и юридическим опытом кибер-права. Это означает, что законы этики роботов могут быть ориентированы на кибер-закон. «Урок», извлеченный из кибер-закона, заключается в важности метафор, под которыми мы понимаем возникающие проблемы в технологиях. Это основано на том, что если мы ошибаемся, например, в метафоре, то законодательство, касающееся возникающей технологической проблемы, скорее всего, неверно. Четвертое утверждение, против которого они выступают, - это метафора, которую пара определяет как «заблуждение Android». Они выступают против заблуждения андроидов, которое утверждает, что люди и небиологические существа «такие же, как люди».

См. Также
Примечания
Ссылки
Дополнительная литература
  • Лин, Патрик / Эбни, Кейт / Бекей, Джордж А. (декабрь 2011 г.). Этика роботов: этические и социальные последствия робототехники. MIT Press.
  • Цафестас, Спирос Г. (2016). Робоэтика Навигационный обзор. Берлин: Springer. ISBN 978-3-319-21713-0.
Внешние ссылки
Последняя правка сделана 2021-06-04 07:23:04
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте