Искусственный интеллект имеет тесную связь с философией, поскольку оба используют концепции с одинаковыми названиями и они включают интеллект, действие, сознание, эпистемологию и даже свободную волю. Кроме того, технология связана с созданием искусственных животных или искусственных людей (или, по крайней мере, искусственных существ; см. Искусственная жизнь ), поэтому эта дисциплина представляет значительный интерес для философов. Эти факторы способствовали появлению философии искусственного интеллекта . Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно.
Философия искусственного интеллекта пытается ответить на следующие вопросы:
Подобные вопросы отражают различные интересы исследователей ИИ, ученых-когнитивистов и философов соответственно. Научные ответы на эти вопросы зависят от определения понятий «интеллект» и «сознание» и от того, какие именно «машины» обсуждаются.
Важные положения философии ИИ включают:
Можно ли создать машину, которая сможет решить все проблемы, которые люди решают с помощью своего интеллекта? Этот вопрос определяет объем того, что машины могут делать в будущем, и определяет направление исследований ИИ. Он касается только поведения машин и игнорирует вопросы, интересующие психологов, ученых-когнитивистов и философов ; Чтобы ответить на этот вопрос, неважно, действительно ли машина думает (как думает человек) или просто действует так, как думает.
В этом утверждении резюмируется основная позиция большинства исследователей ИИ: которое появилось в предложении для Дартмутского семинара 1956 г.:
Аргументы против основной посылки должны показать, что создание работающей системы ИИ невозможно, потому что есть некоторый практический предел возможностей компьютеров или что есть какое-то особое качество человеческого разума, которое необходимо для разумного поведения, но не может быть воспроизведено с помощью машины (или методами текущих исследований ИИ). Аргументы в пользу основной посылки должны показать, что такая система возможна.
Также можно обойти связь между двумя частями вышеуказанного предложения. Например, машинное обучение, начиная с предложения Тьюринга дочерняя машина, по сути, обеспечивает желаемую интеллектуальную способность без точного описания во время разработки того, как именно это будет работать. Учет неявных знаний роботов устраняет необходимость в точном описании.
Первый шаг к ответу на вопрос - дать четкое определение «интеллекта».
Алан Тьюринг сократил проблему определения интеллекта до простого вопроса о разговоре. Он предполагает, что: если машина может ответить на любой заданный ей вопрос, используя те же слова, что и обычный человек, то мы можем назвать эту машину интеллектуальной. Современная версия его экспериментального проекта будет использовать онлайн-чат чат, где один из участников - реальный человек, а один из участников - компьютерная программа. Программа проходит проверку, если никто не может сказать, кто из двух участников - человек. Тьюринг отмечает, что никто (кроме философов) никогда не задает вопрос «могут ли люди думать?» Он пишет: «Вместо того, чтобы постоянно спорить по этому поводу, обычно принято вежливое соглашение, о котором все думают». Тест Тьюринга распространяет это вежливое соглашение на машины:
Одна из критических замечаний по поводу теста Тьюринга заключается в том, что он измеряет только «человечность» поведения машины, а не «интеллект» поведения. Поскольку человеческое поведение и разумное поведение - не одно и то же, тест не может измерить интеллект. Стюарт Дж. Рассел и Питер Норвиг пишут, что «тексты по авиационной инженерии не определяют цель своей области как« создание машин, которые летают так точно, как голуби, что они могут обмануть других голубей » ".
Исследования ИИ XXI века определяют интеллект в терминах интеллектуальных агентов. «Агент» - это то, что воспринимает окружающую среду и действует в ней. «Показатель производительности» определяет, что считается успехом для агента.
Определения, подобные этому, пытаются уловить суть интеллекта. У них есть то преимущество, что, в отличие от теста Тьюринга, они также не проверяют неразумные человеческие черты, такие как опечатки или способность быть оскорбленными. У них есть недостаток, заключающийся в том, что они не умеют различать «вещи, которые думают» и «вещи, которые не умеют». Согласно этому определению, даже термостат имеет элементарный интеллект.
Хьюберт Дрейфус описывает этот аргумент как утверждение, что «если нервная система подчиняется законам физики и химии, а мы имеем все основания предполагать, что она подчиняется, то... мы... должны иметь возможность воспроизводить поведение нервной системы. система с каким-то физическим устройством ". Этот аргумент, впервые представленный еще в 1943 году и ярко описанный Хансом Моравеком в 1988 году, теперь ассоциируется с футуристом Рэем Курцвейлом, который считает, что мощности компьютера будет достаточно для полноценного мозга. к 2029 году. Моделирование таламокортикальной модели, которая имеет размер человеческого мозга (10 нейронов), не в реальном времени, было выполнено в 2005 году, и потребовалось 50 дней, чтобы смоделировать 1 секунду динамики мозга на кластере из 27 процессоры.
Мало кто не согласен с тем, что моделирование мозга теоретически возможно, даже критики ИИ, такие как Хуберт Дрейфус и Джон Сёрл. Однако Сирл отмечает, что в принципе все может быть смоделировано компьютером; таким образом, доведение определения до критической точки приводит к выводу, что любой процесс вообще может технически считаться «вычислением». «Мы хотели знать, что отличает разум от термостатов и печени», - пишет он. Таким образом, простое копирование функционирования мозга само по себе было бы признанием незнания интеллекта и природы разума.
В 1963 году Аллен Ньюэлл и Герберт А. Саймон предположили, что «манипулирование символами» было сутью обоих человеческий и машинный интеллект. Они писали:
Это утверждение очень сильное: оно подразумевает, что человеческое мышление является разновидностью манипулирования символами (поскольку система символов является необходимо для интеллекта) и что машины могут быть интеллектуальными (поскольку для интеллекта достаточно системы символов). Другой вариант этой позиции был описан философом Хьюбертом Дрейфусом, который назвал это «психологическим допущением»:
Символы « ", которые обсуждали Ньюэлл, Саймон и Дрейфус, были словесными и высокоуровневыми символами, которые напрямую соответствуют объектам в мире, таким как
Эти аргументы показывают, что человеческое мышление не состоит (исключительно) из высокоуровневых манипуляций с символами. Они не показывают, что искусственный интеллект невозможен, только то, что требуется больше, чем обработка символов.
В 1931 году Курт Гёдель доказал с помощью теоремы о неполноте, что всегда можно построить «Гёделевскую утверждение ", что данная непротиворечивая формальная система логики (например, высокоуровневая программа обработки символов) не может быть доказана. Несмотря на то, что это истинное утверждение, построенное утверждение Гёделя недоказуемо в данной системе. (Истинность сконструированного утверждения Гёделя зависит от непротиворечивости данной системы; применение того же процесса к слегка несовместимой системе будет казаться успешным, но на самом деле вместо этого даст ложное «утверждение Гёделя».) Более умозрительно предположил Гёдель. что человеческий разум может в конечном итоге правильно определить истинность или ложность любого хорошо обоснованного математического утверждения (включая любое возможное утверждение Гёделя), и, следовательно, сила человеческого разума не сводится к механизму. Философ Джон Лукас (с 1961 г.) и Роджер Пенроуз (с 1989 г.) отстаивали этот философский антимеханистский аргумент. Геделианские антимеханистские аргументы имеют тенденцию полагаться на кажущееся безобидным утверждение о том, что система математиков-людей (или некоторая идеализация математиков-людей) одновременно последовательна (полностью свободна от ошибок) и полностью верит в свою собственную непротиворечивость (и может сделать все логичным). выводы, которые следуют из его собственной последовательности, включая веру в его утверждение Гёделя). Это, очевидно, невозможно для машины Тьюринга (и, в неформальном смысле, для любого известного типа механического компьютера); поэтому гёделианец заключает, что человеческое мышление слишком мощно, чтобы его можно было уловить в машине.
Однако современное мнение в научном и математическом сообществе состоит в том, что реальные человеческие рассуждения противоречивы; что любая последовательная «идеализированная версия» H человеческого рассуждения была бы логически вынуждена принять здоровый, но противоречащий интуиции непредубежденный скептицизм по поводу непротиворечивости H (в противном случае H доказуемо несовместимо); и что теоремы Гёделя не приводят ни к какому действительному аргументу о том, что люди обладают способностями к математическому мышлению, превосходящими то, что машина могла бы когда-либо воспроизвести. Этот консенсус в отношении того, что аргументы антимеханизма Гёделя обречены на провал, четко изложен в Искусственный интеллект : «любая попытка использовать (результаты неполноты Гёделя) для атаки на тезис вычислителя неизбежна. быть нелегитимными, поскольку эти результаты вполне согласуются с тезисом теории вычислительной техники ».
Говоря более прагматично, Рассел и Норвиг отмечают, что аргумент Гёделя применим только к тому, что может быть доказано теоретически, учитывая бесконечное количество памяти и времени. На практике реальные машины (включая людей) имеют ограниченные ресурсы, и им будет сложно доказать многие теоремы. Необязательно доказывать все, чтобы быть умным.
Менее формально, Дуглас Хофштадтер, в своей Пулитцеровской премии книге Гёдель, Эшер, Бах: Вечная золотая коса утверждает, что эти «утверждения Гёделя» всегда относятся к самой системе, проводя аналогию с тем, как парадокс Эпименида использует утверждения, которые относятся к самим себе, например, « это утверждение ложно »или« Я лгу ». Но, конечно, парадокс Эпименида применим ко всему, что делает утверждения, будь то машины или люди, даже сам Лукас. Подумайте:
Это утверждение верно, но не может быть утверждено Лукасом. Это показывает, что сам Лукас подвержен тем же ограничениям, которые он описывает для машин, как и все люди, и поэтому аргумент Лукаса бессмыслен.
После заключения, что человеческое мышление не является -вычислимый, Пенроуз продолжал спорно предположить, что какое-то гипотетические невычислимых процессы с участием коллапса квантомеханические состояния дают людям особое преимущество по сравнению с существующими компьютерами. Существующие квантовые компьютеры способны только уменьшить сложность вычислимых по Тьюрингу задач и по-прежнему ограничены задачами в рамках машин Тьюринга. По аргументам Пенроуза и Лукаса существующих квантовых компьютеров недостаточно, поэтому Пенроуз ищет какой-то другой процесс, включающий новые физика, например квантовая гравитация, которая могла бы проявить новую физику в масштабе массы Планка посредством спонтанного квантового коллапса волновой функции. Он предположил, что эти состояния возникают как внутри нейронов, так и охватывают более одного нейрона. Однако другие ученые отмечают, что в мозге нет правдоподобного органического механизма для использования каких-либо квантовых вычислений, и, кроме того, временная шкала квантовой декогеренции кажется слишком быстрой, чтобы влиять на срабатывание нейронов.
Хьюберт Дрейфус утверждал, что человеческий интеллект и опыт зависят в первую очередь от неявных навыков, а не явных символических манипуляций, и утверждал, что эти навыки никогда не будут отражены в формальных правилах.
Аргумент Дрейфуса был предвосхищен Тьюрингом в его статье 1950 года Вычислительные машины и интеллект, где он классифицировал это как «аргумент, основанный на неформальности поведения». В ответ Тьюринг утверждал, что то, что мы не знаем правил, управляющих сложным поведением, не означает, что таких правил не существует. Он писал: «Мы не можем так легко убедить себя в отсутствии полных законов поведения... Единственный известный нам способ найти такие законы - это научное наблюдение, и мы, конечно, не знаем никаких обстоятельств, при которых мы могли бы сказать:« Мы
Рассел и Норвиг отмечают, что за годы, прошедшие с тех пор, как Дрейфус опубликовал свою критику, был достигнут прогресс в обнаружении «правил», управляющих бессознательным рассуждением. расположенное движение в исследованиях робототехники пытается уловить наши бессознательные навыки восприятия и внимания. Парадигмы вычислительного интеллекта, такие как нейронные сети, эволюционные алгоритмы и т. Д. В основном направлены на моделирование бессознательного мышления и обучения. Статистические подходы к ИИ позволяют делать прогнозы, приближающиеся к точности интуитивных предположений человека. Исследования здравого смысла были сосредоточены на воспроизведении «фона» или контекста знания. Фактически, исследования ИИ в целом отошли от манипулирования символами высокого уровня к новым моделям, которые предназначены для большей части наших бессознательных рассуждений. Историк и исследователь искусственного интеллекта Даниэль Кревье писал, что «время доказало точность и восприимчивость некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, они предполагали, что конструктивные действия могли бы быть предприняты гораздо раньше».
Это философский вопрос, связанный с проблемой других умов и трудной проблемой сознания. Вопрос вращается вокруг позиции, определенной Джоном Сёрлом как «сильный ИИ»:
Сирл отличал эту позицию от того, что он назвал «слабым». ИИ ":
Сирл ввел термины для отделения сильного ИИ от слабого, чтобы он мог сосредоточиться на том, что, по его мнению, было более интересным и спорным вопросом. Он утверждал, что даже если мы предположим, что у нас есть компьютерная программа, которая действует точно так же, как человеческий разум, все равно останется трудный философский вопрос, на который нужно будет ответить.
Ни одна из двух позиций Серла не вызывает большого беспокойства. к исследованиям ИИ, поскольку они не дают прямого ответа на вопрос «может ли машина отображать общий интеллект?» (если также нельзя показать, что сознание необходимо для интеллекта). Тьюринг писал: «Я не хочу производить впечатление, будто я думаю, что в сознании нет никакой тайны… [b] но я не думаю, что эти тайны обязательно нужно разгадывать, прежде чем мы сможем ответить на вопрос [могут ли машины думать]. «Рассел и Норвиг соглашаются:« Большинство исследователей ИИ принимают гипотезу слабого ИИ как должное и не заботятся о сильной гипотезе ИИ ».
Есть несколько исследователей, которые считают, что сознание является важным элементом интеллекта, например Игорь Александр, Стэн Франклин, Рон Сан и Пентти Хайконен, хотя их определение «сознание» очень близко к «разуму». (См. искусственное сознание.)
Прежде чем мы сможем ответить на этот вопрос, мы должны четко понимать, что мы подразумеваем под «умами», «ментальными состояниями» и «сознанием».
Слова «разум » и «сознание » используются разными сообществами по-разному. Некоторые мыслители новой эры, например, используют слово «сознание» для описания чего-то похожего на «élan vital » Бергсона : невидимый энергетический флюид. это пронизывает жизнь и особенно разум. Писатели-фантасты используют это слово для описания некоторого существенного свойства, которое делает нас людьми: машина или инопланетянин, который «сознателен», будет представлен как полностью человеческий персонаж, обладающий интеллектом и желаниями., ,, проницательность, гордость и так далее. (Писатели-фантасты также используют слова "разум", "разум", "самосознание" или "призрак " - как в манге и аниме Призрак в доспехах - чтобы описать это важное человеческое свойство). Для других слова «разум» или «сознание» используются как своего рода светский синоним души.
. Для философов, нейробиологов и когнитивных ученых, эти слова используются более точно и обыденно: они относятся к знакомому повседневному опыту наличия «мысли в голове», такой как восприятие, сон, намерение или план, и то, как мы что-то знаем, или что-то значим, или что-то понимаем. «Нетрудно дать здравое определение сознания», - замечает философ Джон Сирл. То, что загадочно и увлекательно, не столько в том, что оно есть, сколько в том, как оно есть: как кусок жировой ткани и электричества порождает этот (знакомый) опыт восприятия, смысла или мышления?
Философы называют это трудной проблемой сознания. Это последняя версия классической проблемы философии разума, которая называется «проблема разума и тела ». Смежная проблема - это проблема значения или понимания (которую философы называют «интенциональностью »): какова связь между нашими мыслями и тем, о чем мы думаем (т.е. объектами и ситуациями в мире)? Третья проблема - это проблема опыта (или «феноменологии »): если два человека видят одно и то же, имеют ли они одинаковый опыт? Или есть вещи «внутри их головы» (называемые «qualia »), которые могут отличаться от человека к человеку?
Нейробиологи полагают, что все эти проблемы будут решены, когда мы начнем определять нейронные корреляты сознания : актуальные отношения между механизмами в наших головах и их коллективными свойствами; такие как ум, опыт и понимание. Некоторые из самых резких критиков искусственного интеллекта соглашаются с тем, что мозг - это просто машина, а сознание и интеллект являются результатом физических процессов в мозге. Сложный философский вопрос заключается в следующем: может ли компьютерная программа, выполняемая на цифровой машине, которая перемешивает двоичные цифры нуля и единицы, дублировать способность нейронов создавать сознание с ментальными состояниями (такими как понимание или восприятие), и, в конечном итоге, опыт сознания ?
Джон Сирл просит нас рассмотреть мысленный эксперимент : предположим, мы написали компьютерную программу, которая проходит тест Тьюринга и демонстрирует разумное действие в целом. Предположим, конкретно, что программа может свободно разговаривать на китайском языке. Напишите программу на карточках 3х5 и отдайте их обычному человеку, не владеющему китайским языком. Заприте человека в комнате и попросите его следовать инструкциям на карточках. Он будет копировать китайские иероглифы и передавать их в комнату и выходить через щель. Со стороны может показаться, что в китайской комнате находится полностью умный человек, говорящий по-китайски. Вопрос в следующем: есть ли в комнате кто-нибудь (или что-нибудь), кто понимает китайский? То есть, есть ли что-нибудь, что имеет ментальное состояние понимания или имеет сознательное осознание того, что обсуждается на китайском языке? Мужчина явно не в курсе. Комната не может знать. Карты точно не знают. Сёрл приходит к выводу, что китайская комната или любая другая система физических символов не может иметь разума.
Сирл продолжает утверждать, что фактические психические состояния и сознание требуют ( еще предстоит описать) «фактические физико-химические свойства реального человеческого мозга». Он утверждает, что существуют особые "причинные свойства" мозга и нейронов, которые порождают умы : по его словам, «мозг порождает умы»
Готфрид Лейбниц выдвинул по существу те же аргументы, что и Сирл в 1714 году, используя мысленный эксперимент по расширению мозга до размеров а мельница. В 1974 году представил себе дублирование мозга с помощью телефонных линий и офисов, в которых работают люди, а в 1978 году Нед Блок представил, что все население Китая будет вовлечено в такую симуляцию мозга. Этот мысленный эксперимент называется «Китайская нация» или «Китайский спортзал». Нед Блок также предложил свой аргумент Болван, который представляет собой версию Китайской комнаты, в которой программа была переработана в простой набор правил форма «смотри, делай то», убирающая с программы всю загадку.
Ответы на китайскую комнату подчеркивают несколько разных моментов.
вычислительная теория разума или «вычислитель » утверждает, что отношения между разумом и мозгом аналогичны (если не идентичны) отношениям между запущенной программой и компьютер. Эта идея имеет философские корни в Гоббсе (который утверждал, что рассуждение было «не более чем расчетом»), Лейбницем (который пытался создать логическое исчисление всех человеческих идей), Юм (считавший, что восприятие можно свести к «атомарным впечатлениям») и даже Кант (который анализировал весь опыт как управляемый формальными правилами). Последняя версия связана с философами Хилари Патнэм и Джерри Фодором.
. Этот вопрос связан с нашими предыдущими вопросами: если человеческий мозг является разновидностью компьютера, то компьютеры могут быть как разумными, так и сознательными, отвечая как на практические, так и на философские вопросы ИИ. Что касается практического вопроса ИИ («Может ли машина проявлять общий интеллект?»), Некоторые версии вычислительной техники утверждают, что (как писал Гоббс ):
Другими словами, наш интеллект проистекает из формы вычислений, аналогичной арифметике. Это гипотеза физической системы символов, обсуждаемая выше, и она подразумевает, что искусственный интеллект возможен. Что касается философского вопроса об ИИ («Может ли машина иметь разум, ментальные состояния и сознание?»), Большинство версий вычислительного подхода утверждают, что (как Стеван Харнад характеризует его):
Это «сильный ИИ» Джона Сёрла, о котором говорилось выше, и это реальная цель аргумента Китайская комната (согласно Харнад ).
Алан Тьюринг отметил, что есть много аргументов в форме «машина никогда не сделает X», где X может быть множеством вещей, например:
Быть добрый, находчивый, красивый, дружелюбный, инициативный, обладающий чувством юмора, отличать хорошее от плохого, делать ошибки, влюбляться, наслаждаться клубникой и сливками, заставлять кого-то влюбиться в них, учиться на опыте, правильно использовать слова, быть предметом собственной мысли, иметь такое же разнообразие поведения, как и мужчина, делать что-то действительно новое.
Тьюринг утверждает, что эти возражения часто основаны на на наивных предположениях об универсальности машин или являются «замаскированными формами аргументации от сознания». Написание программы, демонстрирующей одно из этих поведений, «не произведет большого впечатления». Все эти аргументы касаются основной предпосылки ИИ, если только нельзя показать, что одна из этих черт важна для общего интеллекта.
Если «эмоции » определены только с точки зрения их влияния на поведение или на то, как они функционируют внутри организма, тогда эмоции могут рассматриваться как механизм, который интеллектуальный агент использует для максимизации полезности своих действий. Учитывая такое определение эмоции, Ханс Моравец считает, что «роботы в целом будут очень эмоциональны, если будут хорошими людьми». Страх - это безотлагательный источник. Сочувствие - необходимый компонент хорошего взаимодействия человека с компьютером. Он говорит, что роботы «будут пытаться доставить вам удовольствие очевидным самоотверженным образом, потому что они будут испытывать острые ощущения от этого положительного подкрепления. Вы можете интерпретировать это как своего рода любовь». Даниэль Кревье пишет: «Моравец считает, что что эмоции - это всего лишь средства для направления поведения в направлении, благоприятном для выживания человека ».
"Самосознание ", как отмечалось выше, иногда используется писателями-фантастами как название основного человеческого свойства, которое делает персонажа полностью человеком. Тьюринг отбрасывает все другие свойства человека и сводит вопрос к следующему: «Может ли машина быть предметом собственной мысли?» Может ли она думать о себе? С этой точки зрения можно написать программу, которая может сообщать о своих внутренних состояниях, например отладчик. Хотя, возможно, самосознание часто предполагает немного больше возможностей; машина, которая может каким-то образом приписывать значение не только своему собственному состоянию, но и в целом постулирует вопросы без веских ответов: контекстуальная природа своего существования сейчас; как он сравнивается с прошлыми состояниями или планами на будущее, пределы и ценность своего рабочего продукта, как он воспринимает свою работу, чтобы ее оценили или сравнили с другими.
Тьюринг сводит это к вопросу о том, является ли машина оригинальной. может «застать нас врасплох» и утверждает, что это, очевидно, правда, что может подтвердить любой программист. Он отмечает, что при достаточном объеме памяти компьютер может вести себя астрономическим числом различных способов. Для компьютера, который может представлять идеи, должно быть возможно, даже тривиально, объединить их по-новому. (Автоматизированный математик Дугласа Лената, например, объединил идеи для открытия новых математических истин.) Каплан и Хенлейн предполагают, что машины могут проявлять научное творчество, в то время как кажется вероятным, что люди одержат верх в том, что касается художественного творчества.
В 2009 году ученые из Университета Аберистуита в Уэльсе и Кембриджского университета Великобритании разработали робота по имени Адам, которого они считают первая машина, которая самостоятельно пришла к новым научным открытиям. Также в 2009 году исследователи из Cornell разработали Eureqa, компьютерную программу, которая экстраполирует формулы в соответствии с введенными данными, например, нахождение законов движения на основе движения маятника.
Этот вопрос (как и многие другие в философии искусственного интеллекта) можно представить в двух формах. «Враждебность» может быть определена в терминах функция или поведение, и в этом случае «враждебный» становится синонимом «опасного». Или это можно определить с точки зрения намерения: может ли машина «сознательно» намереваться причинить вред? Последний вопрос - "может ли машина иметь сознательные состояния?" (например, намерения ) в другой форме.
Вопрос о том, будут ли опасны высокоинтеллектуальные и полностью автономные машины, подробно исследовался футуристами (такими как Институт сингулярности ). Очевидный элемент драмы также сделал эту тему популярной в научной фантастике, которая рассмотрела множество различных возможных сценариев, в которых интеллектуальные машины представляют угрозу человечеству; см. Искусственный интеллект в художественной литературе.
Одна из проблем заключается в том, что машины могут очень быстро приобрести автономность и интеллект, необходимые для того, чтобы быть опасными. Вернор Виндж предположил, что всего за несколько лет компьютеры внезапно станут в тысячи или миллионы раз умнее людей. Он называет это «Сингулярностью ». Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для человека. Это обсуждается в философии под названием сингулярности.
В 2009 году ученые и технические эксперты посетили конференцию, чтобы обсудить потенциальное влияние роботов и компьютеров и т. Д. влияние гипотетической возможности того, что они могут стать самодостаточными и иметь возможность принимать свои собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы создать угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканского интеллекта». Они отметили, что самосознание, изображенное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.
Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда такие роботы дается некоторая степень автономных функций. ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения.
Президент Ассоциации содействия развитию Искусственный интеллект заказал исследование, чтобы изучить этот вопрос. Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.
Некоторые высказывают предположение о необходимости создания «Дружественного ИИ », что означает, что достижения, которые уже происходят с ИИ, также должны включать в себя попытки сделать ИИ по своей сути дружественным и гуманным.
Наконец, те, кто верит в существование души, могут возразить, что «мышление - это функция бессмертной души человека». Алан Тьюринг назвал это «теологическим возражением». Он пишет
Пытаясь сконструировать такие машины, мы не должны непочтительно узурпировать Его силу созидания душ, как и в случае деторождения: скорее, в любом случае мы являемся инструментами Его воли, обеспечивающими особняки для души, которые Он создает.
Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно. В Стэнфордской энциклопедии философии некоторые философы утверждают, что роль философии в ИИ недооценивается. Физик Дэвид Дойч утверждает, что без понимания философии или ее концепций развитие ИИ будет страдать от отсутствия прогресса.
Основная серия конференций по этой проблеме это «Философия и теория искусственного интеллекта» (PT-AI), управляемая Винсентом К. Мюллером.
Основная библиография по этой теме с несколькими подразделами находится на PhilPapers.