Философия искусственного интеллекта

редактировать

Искусственный интеллект имеет тесную связь с философией, поскольку оба используют концепции с одинаковыми названиями и они включают интеллект, действие, сознание, эпистемологию и даже свободную волю. Кроме того, технология связана с созданием искусственных животных или искусственных людей (или, по крайней мере, искусственных существ; см. Искусственная жизнь ), поэтому эта дисциплина представляет значительный интерес для философов. Эти факторы способствовали появлению философии искусственного интеллекта . Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно.

Философия искусственного интеллекта пытается ответить на следующие вопросы:

  • Может ли машина действовать разумно? Может ли он решить любую проблему, которую человек решил бы с помощью мышления?
  • Разве человеческий интеллект и машинный интеллект - это одно и то же? человеческий мозг, по сути, компьютер?
  • Может ли машина иметь разум, психические состояния и сознание в том же смысле, что и человек может? Может ли он почувствовать, как обстоят дела?

Подобные вопросы отражают различные интересы исследователей ИИ, ученых-когнитивистов и философов соответственно. Научные ответы на эти вопросы зависят от определения понятий «интеллект» и «сознание» и от того, какие именно «машины» обсуждаются.

Важные положения философии ИИ включают:

  • «вежливое соглашение» Тьюринга : если машина ведет себя так же разумно, как человек, то она так же умна, как человек.
  • Предложение Дартмута : «Каждый аспект обучения или любая другая особенность интеллекта может быть описана с такой точностью, что может быть создана машина для его моделирования»
  • Гипотеза системы физических символов Аллена Ньюэлла и Герберта Саймона : «Физическая система символов имеет необходимые и достаточные средства общего разумного действия»
  • Джон Сильная гипотеза ИИ Сирла : «Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет иметь разум точно так же, как и человеческие существа».
  • Гоббс «механизм»: «Потому что« разум »... есть не что иное, как« расчет », то есть сложение и вычитание последствий общих названий, согласованных для« маркирования »и« обозначения »наших мыслей...»

C содержание

  • 1 Может ли машина отображать общий интеллект?
    • 1.1 Интеллект
      • 1.1.1 Тест Тьюринга
      • 1.1.2 Определение интеллектуального агента
    • 1.2 Аргументы, которые машина может отображать общий интеллект
      • 1.2.1 Мозг можно смоделировать
      • 1.2.2 Человеческое мышление - это обработка символов
      • 1.2.3 Аргументы против обработки символов
        • 1.2.3.1 Геделианские антимеханистские аргументы
        • 1.2.3.2 Дрейфус: примат неявные навыки
  • 2 Может ли машина иметь разум, сознание и психические состояния?
    • 2.1 Сознание, умы, психические состояния, то есть
    • 2.2 Аргументы, что компьютер не может иметь разум и психические состояния
      • 2.2.1 Китайская комната Сирла
      • 2.2.2 Связанные аргументы: мельница Лейбница, телефонная станция Дэвиса, китайская нация Блока и Болван
      • 2.2.3 Ответы на китайскую комнату
  • 3 Является ли мышление своего рода вычислением?
  • 4 Другие вопросы по теме
    • 4.1 Может ли машина иметь эмоции?
    • 4.2 Может ли машина быть самосознательной?
    • 4.3 Может ли машина быть оригинальной или творческой?
    • 4.4 Может ли машина быть доброжелательной или враждебной?
    • 4.5 Может ли машина иметь душу?
  • 5 Взгляды на роль философии
  • 6 Конференции
  • 7 См. Также
  • 8 Примечания
  • 9 Ссылки

Может ли машина проявлять общий интеллект?

Можно ли создать машину, которая сможет решить все проблемы, которые люди решают с помощью своего интеллекта? Этот вопрос определяет объем того, что машины могут делать в будущем, и определяет направление исследований ИИ. Он касается только поведения машин и игнорирует вопросы, интересующие психологов, ученых-когнитивистов и философов ; Чтобы ответить на этот вопрос, неважно, действительно ли машина думает (как думает человек) или просто действует так, как думает.

В этом утверждении резюмируется основная позиция большинства исследователей ИИ: которое появилось в предложении для Дартмутского семинара 1956 г.:

  • «Каждый аспект обучения или любая другая особенность интеллекта может быть описана с такой точностью, что можно создать машину для его моделирования»

Аргументы против основной посылки должны показать, что создание работающей системы ИИ невозможно, потому что есть некоторый практический предел возможностей компьютеров или что есть какое-то особое качество человеческого разума, которое необходимо для разумного поведения, но не может быть воспроизведено с помощью машины (или методами текущих исследований ИИ). Аргументы в пользу основной посылки должны показать, что такая система возможна.

Также можно обойти связь между двумя частями вышеуказанного предложения. Например, машинное обучение, начиная с предложения Тьюринга дочерняя машина, по сути, обеспечивает желаемую интеллектуальную способность без точного описания во время разработки того, как именно это будет работать. Учет неявных знаний роботов устраняет необходимость в точном описании.

Первый шаг к ответу на вопрос - дать четкое определение «интеллекта».

Интеллект

«Стандартная интерпретация» теста Тьюринга.

Тест Тьюринга

Алан Тьюринг сократил проблему определения интеллекта до простого вопроса о разговоре. Он предполагает, что: если машина может ответить на любой заданный ей вопрос, используя те же слова, что и обычный человек, то мы можем назвать эту машину интеллектуальной. Современная версия его экспериментального проекта будет использовать онлайн-чат чат, где один из участников - реальный человек, а один из участников - компьютерная программа. Программа проходит проверку, если никто не может сказать, кто из двух участников - человек. Тьюринг отмечает, что никто (кроме философов) никогда не задает вопрос «могут ли люди думать?» Он пишет: «Вместо того, чтобы постоянно спорить по этому поводу, обычно принято вежливое соглашение, о котором все думают». Тест Тьюринга распространяет это вежливое соглашение на машины:

  • Если машина действует так же разумно, как человек, то она так же разумна, как и человек.

Одна из критических замечаний по поводу теста Тьюринга заключается в том, что он измеряет только «человечность» поведения машины, а не «интеллект» поведения. Поскольку человеческое поведение и разумное поведение - не одно и то же, тест не может измерить интеллект. Стюарт Дж. Рассел и Питер Норвиг пишут, что «тексты по авиационной инженерии не определяют цель своей области как« создание машин, которые летают так точно, как голуби, что они могут обмануть других голубей » ".

Определение интеллектуального агента

Простой рефлекторный агент

Исследования ИИ XXI века определяют интеллект в терминах интеллектуальных агентов. «Агент» - это то, что воспринимает окружающую среду и действует в ней. «Показатель производительности» определяет, что считается успехом для агента.

  • «Если агент действует так, чтобы максимизировать ожидаемое значение показателя производительности, основанного на прошлом опыте и знаниях, тогда он умен».

Определения, подобные этому, пытаются уловить суть интеллекта. У них есть то преимущество, что, в отличие от теста Тьюринга, они также не проверяют неразумные человеческие черты, такие как опечатки или способность быть оскорбленными. У них есть недостаток, заключающийся в том, что они не умеют различать «вещи, которые думают» и «вещи, которые не умеют». Согласно этому определению, даже термостат имеет элементарный интеллект.

Аргументы в пользу того, что машина может отображать общий интеллект

Мозг можно смоделировать

МРТ сканирование нормального мозга взрослого человека

Хьюберт Дрейфус описывает этот аргумент как утверждение, что «если нервная система подчиняется законам физики и химии, а мы имеем все основания предполагать, что она подчиняется, то... мы... должны иметь возможность воспроизводить поведение нервной системы. система с каким-то физическим устройством ". Этот аргумент, впервые представленный еще в 1943 году и ярко описанный Хансом Моравеком в 1988 году, теперь ассоциируется с футуристом Рэем Курцвейлом, который считает, что мощности компьютера будет достаточно для полноценного мозга. к 2029 году. Моделирование таламокортикальной модели, которая имеет размер человеческого мозга (10 нейронов), не в реальном времени, было выполнено в 2005 году, и потребовалось 50 дней, чтобы смоделировать 1 секунду динамики мозга на кластере из 27 процессоры.

Мало кто не согласен с тем, что моделирование мозга теоретически возможно, даже критики ИИ, такие как Хуберт Дрейфус и Джон Сёрл. Однако Сирл отмечает, что в принципе все может быть смоделировано компьютером; таким образом, доведение определения до критической точки приводит к выводу, что любой процесс вообще может технически считаться «вычислением». «Мы хотели знать, что отличает разум от термостатов и печени», - пишет он. Таким образом, простое копирование функционирования мозга само по себе было бы признанием незнания интеллекта и природы разума.

Человеческое мышление - это обработка символов

В 1963 году Аллен Ньюэлл и Герберт А. Саймон предположили, что «манипулирование символами» было сутью обоих человеческий и машинный интеллект. Они писали:

  • «Физическая система символов имеет необходимые и достаточные средства для общего разумного действия».

Это утверждение очень сильное: оно подразумевает, что человеческое мышление является разновидностью манипулирования символами (поскольку система символов является необходимо для интеллекта) и что машины могут быть интеллектуальными (поскольку для интеллекта достаточно системы символов). Другой вариант этой позиции был описан философом Хьюбертом Дрейфусом, который назвал это «психологическим допущением»:

  • «Разум можно рассматривать как устройство, оперирующее битами информации в соответствии с формальными правилами».

Символы « ", которые обсуждали Ньюэлл, Саймон и Дрейфус, были словесными и высокоуровневыми символами, которые напрямую соответствуют объектам в мире, таким как и . Большинство программ ИИ, написанных между 1956 и 1990 годами, использовали этот вид символа. Современный ИИ, основанный на статистике и математической оптимизации, не использует высокоуровневую «обработку символов», о которой говорили Ньюэлл и Саймон.

Аргументы против обработки символов

Эти аргументы показывают, что человеческое мышление не состоит (исключительно) из высокоуровневых манипуляций с символами. Они не показывают, что искусственный интеллект невозможен, только то, что требуется больше, чем обработка символов.

аргументы антимеханизма Гёделя

В 1931 году Курт Гёдель доказал с помощью теоремы о неполноте, что всегда можно построить «Гёделевскую утверждение ", что данная непротиворечивая формальная система логики (например, высокоуровневая программа обработки символов) не может быть доказана. Несмотря на то, что это истинное утверждение, построенное утверждение Гёделя недоказуемо в данной системе. (Истинность сконструированного утверждения Гёделя зависит от непротиворечивости данной системы; применение того же процесса к слегка несовместимой системе будет казаться успешным, но на самом деле вместо этого даст ложное «утверждение Гёделя».) Более умозрительно предположил Гёдель. что человеческий разум может в конечном итоге правильно определить истинность или ложность любого хорошо обоснованного математического утверждения (включая любое возможное утверждение Гёделя), и, следовательно, сила человеческого разума не сводится к механизму. Философ Джон Лукас (с 1961 г.) и Роджер Пенроуз (с 1989 г.) отстаивали этот философский антимеханистский аргумент. Геделианские антимеханистские аргументы имеют тенденцию полагаться на кажущееся безобидным утверждение о том, что система математиков-людей (или некоторая идеализация математиков-людей) одновременно последовательна (полностью свободна от ошибок) и полностью верит в свою собственную непротиворечивость (и может сделать все логичным). выводы, которые следуют из его собственной последовательности, включая веру в его утверждение Гёделя). Это, очевидно, невозможно для машины Тьюринга (и, в неформальном смысле, для любого известного типа механического компьютера); поэтому гёделианец заключает, что человеческое мышление слишком мощно, чтобы его можно было уловить в машине.

Однако современное мнение в научном и математическом сообществе состоит в том, что реальные человеческие рассуждения противоречивы; что любая последовательная «идеализированная версия» H человеческого рассуждения была бы логически вынуждена принять здоровый, но противоречащий интуиции непредубежденный скептицизм по поводу непротиворечивости H (в противном случае H доказуемо несовместимо); и что теоремы Гёделя не приводят ни к какому действительному аргументу о том, что люди обладают способностями к математическому мышлению, превосходящими то, что машина могла бы когда-либо воспроизвести. Этот консенсус в отношении того, что аргументы антимеханизма Гёделя обречены на провал, четко изложен в Искусственный интеллект : «любая попытка использовать (результаты неполноты Гёделя) для атаки на тезис вычислителя неизбежна. быть нелегитимными, поскольку эти результаты вполне согласуются с тезисом теории вычислительной техники ».

Говоря более прагматично, Рассел и Норвиг отмечают, что аргумент Гёделя применим только к тому, что может быть доказано теоретически, учитывая бесконечное количество памяти и времени. На практике реальные машины (включая людей) имеют ограниченные ресурсы, и им будет сложно доказать многие теоремы. Необязательно доказывать все, чтобы быть умным.

Менее формально, Дуглас Хофштадтер, в своей Пулитцеровской премии книге Гёдель, Эшер, Бах: Вечная золотая коса утверждает, что эти «утверждения Гёделя» всегда относятся к самой системе, проводя аналогию с тем, как парадокс Эпименида использует утверждения, которые относятся к самим себе, например, « это утверждение ложно »или« Я лгу ». Но, конечно, парадокс Эпименида применим ко всему, что делает утверждения, будь то машины или люди, даже сам Лукас. Подумайте:

  • Лукас не может подтвердить истинность этого утверждения.

Это утверждение верно, но не может быть утверждено Лукасом. Это показывает, что сам Лукас подвержен тем же ограничениям, которые он описывает для машин, как и все люди, и поэтому аргумент Лукаса бессмыслен.

После заключения, что человеческое мышление не является -вычислимый, Пенроуз продолжал спорно предположить, что какое-то гипотетические невычислимых процессы с участием коллапса квантомеханические состояния дают людям особое преимущество по сравнению с существующими компьютерами. Существующие квантовые компьютеры способны только уменьшить сложность вычислимых по Тьюрингу задач и по-прежнему ограничены задачами в рамках машин Тьюринга. По аргументам Пенроуза и Лукаса существующих квантовых компьютеров недостаточно, поэтому Пенроуз ищет какой-то другой процесс, включающий новые физика, например квантовая гравитация, которая могла бы проявить новую физику в масштабе массы Планка посредством спонтанного квантового коллапса волновой функции. Он предположил, что эти состояния возникают как внутри нейронов, так и охватывают более одного нейрона. Однако другие ученые отмечают, что в мозге нет правдоподобного органического механизма для использования каких-либо квантовых вычислений, и, кроме того, временная шкала квантовой декогеренции кажется слишком быстрой, чтобы влиять на срабатывание нейронов.

Дрейфус: первенство неявных навыков

Хьюберт Дрейфус утверждал, что человеческий интеллект и опыт зависят в первую очередь от неявных навыков, а не явных символических манипуляций, и утверждал, что эти навыки никогда не будут отражены в формальных правилах.

Аргумент Дрейфуса был предвосхищен Тьюрингом в его статье 1950 года Вычислительные машины и интеллект, где он классифицировал это как «аргумент, основанный на неформальности поведения». В ответ Тьюринг утверждал, что то, что мы не знаем правил, управляющих сложным поведением, не означает, что таких правил не существует. Он писал: «Мы не можем так легко убедить себя в отсутствии полных законов поведения... Единственный известный нам способ найти такие законы - это научное наблюдение, и мы, конечно, не знаем никаких обстоятельств, при которых мы могли бы сказать:« Мы

Рассел и Норвиг отмечают, что за годы, прошедшие с тех пор, как Дрейфус опубликовал свою критику, был достигнут прогресс в обнаружении «правил», управляющих бессознательным рассуждением. расположенное движение в исследованиях робототехники пытается уловить наши бессознательные навыки восприятия и внимания. Парадигмы вычислительного интеллекта, такие как нейронные сети, эволюционные алгоритмы и т. Д. В основном направлены на моделирование бессознательного мышления и обучения. Статистические подходы к ИИ позволяют делать прогнозы, приближающиеся к точности интуитивных предположений человека. Исследования здравого смысла были сосредоточены на воспроизведении «фона» или контекста знания. Фактически, исследования ИИ в целом отошли от манипулирования символами высокого уровня к новым моделям, которые предназначены для большей части наших бессознательных рассуждений. Историк и исследователь искусственного интеллекта Даниэль Кревье писал, что «время доказало точность и восприимчивость некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, они предполагали, что конструктивные действия могли бы быть предприняты гораздо раньше».

Может ли машина иметь разум, сознание и психические состояния?

Это философский вопрос, связанный с проблемой других умов и трудной проблемой сознания. Вопрос вращается вокруг позиции, определенной Джоном Сёрлом как «сильный ИИ»:

  • Система физических символов может иметь разум и психические состояния.

Сирл отличал эту позицию от того, что он назвал «слабым». ИИ ":

  • Система физических символов может действовать разумно.

Сирл ввел термины для отделения сильного ИИ от слабого, чтобы он мог сосредоточиться на том, что, по его мнению, было более интересным и спорным вопросом. Он утверждал, что даже если мы предположим, что у нас есть компьютерная программа, которая действует точно так же, как человеческий разум, все равно останется трудный философский вопрос, на который нужно будет ответить.

Ни одна из двух позиций Серла не вызывает большого беспокойства. к исследованиям ИИ, поскольку они не дают прямого ответа на вопрос «может ли машина отображать общий интеллект?» (если также нельзя показать, что сознание необходимо для интеллекта). Тьюринг писал: «Я не хочу производить впечатление, будто я думаю, что в сознании нет никакой тайны… [b] но я не думаю, что эти тайны обязательно нужно разгадывать, прежде чем мы сможем ответить на вопрос [могут ли машины думать]. «Рассел и Норвиг соглашаются:« Большинство исследователей ИИ принимают гипотезу слабого ИИ как должное и не заботятся о сильной гипотезе ИИ ».

Есть несколько исследователей, которые считают, что сознание является важным элементом интеллекта, например Игорь Александр, Стэн Франклин, Рон Сан и Пентти Хайконен, хотя их определение «сознание» очень близко к «разуму». (См. искусственное сознание.)

Прежде чем мы сможем ответить на этот вопрос, мы должны четко понимать, что мы подразумеваем под «умами», «ментальными состояниями» и «сознанием».

Сознание, умы, психические состояния, значение

Слова «разум » и «сознание » используются разными сообществами по-разному. Некоторые мыслители новой эры, например, используют слово «сознание» для описания чего-то похожего на «élan vital » Бергсона : невидимый энергетический флюид. это пронизывает жизнь и особенно разум. Писатели-фантасты используют это слово для описания некоторого существенного свойства, которое делает нас людьми: машина или инопланетянин, который «сознателен», будет представлен как полностью человеческий персонаж, обладающий интеллектом и желаниями., ,, проницательность, гордость и так далее. (Писатели-фантасты также используют слова "разум", "разум", "самосознание" или "призрак " - как в манге и аниме Призрак в доспехах - чтобы описать это важное человеческое свойство). Для других слова «разум» или «сознание» используются как своего рода светский синоним души.

. Для философов, нейробиологов и когнитивных ученых, эти слова используются более точно и обыденно: они относятся к знакомому повседневному опыту наличия «мысли в голове», такой как восприятие, сон, намерение или план, и то, как мы что-то знаем, или что-то значим, или что-то понимаем. «Нетрудно дать здравое определение сознания», - замечает философ Джон Сирл. То, что загадочно и увлекательно, не столько в том, что оно есть, сколько в том, как оно есть: как кусок жировой ткани и электричества порождает этот (знакомый) опыт восприятия, смысла или мышления?

Философы называют это трудной проблемой сознания. Это последняя версия классической проблемы философии разума, которая называется «проблема разума и тела ». Смежная проблема - это проблема значения или понимания (которую философы называют «интенциональностью »): какова связь между нашими мыслями и тем, о чем мы думаем (т.е. объектами и ситуациями в мире)? Третья проблема - это проблема опыта (или «феноменологии »): если два человека видят одно и то же, имеют ли они одинаковый опыт? Или есть вещи «внутри их головы» (называемые «qualia »), которые могут отличаться от человека к человеку?

Нейробиологи полагают, что все эти проблемы будут решены, когда мы начнем определять нейронные корреляты сознания : актуальные отношения между механизмами в наших головах и их коллективными свойствами; такие как ум, опыт и понимание. Некоторые из самых резких критиков искусственного интеллекта соглашаются с тем, что мозг - это просто машина, а сознание и интеллект являются результатом физических процессов в мозге. Сложный философский вопрос заключается в следующем: может ли компьютерная программа, выполняемая на цифровой машине, которая перемешивает двоичные цифры нуля и единицы, дублировать способность нейронов создавать сознание с ментальными состояниями (такими как понимание или восприятие), и, в конечном итоге, опыт сознания ?

Аргументы, что компьютер не может иметь разум и психические состояния

Китайская комната Сирла

Джон Сирл просит нас рассмотреть мысленный эксперимент : предположим, мы написали компьютерную программу, которая проходит тест Тьюринга и демонстрирует разумное действие в целом. Предположим, конкретно, что программа может свободно разговаривать на китайском языке. Напишите программу на карточках 3х5 и отдайте их обычному человеку, не владеющему китайским языком. Заприте человека в комнате и попросите его следовать инструкциям на карточках. Он будет копировать китайские иероглифы и передавать их в комнату и выходить через щель. Со стороны может показаться, что в китайской комнате находится полностью умный человек, говорящий по-китайски. Вопрос в следующем: есть ли в комнате кто-нибудь (или что-нибудь), кто понимает китайский? То есть, есть ли что-нибудь, что имеет ментальное состояние понимания или имеет сознательное осознание того, что обсуждается на китайском языке? Мужчина явно не в курсе. Комната не может знать. Карты точно не знают. Сёрл приходит к выводу, что китайская комната или любая другая система физических символов не может иметь разума.

Сирл продолжает утверждать, что фактические психические состояния и сознание требуют ( еще предстоит описать) «фактические физико-химические свойства реального человеческого мозга». Он утверждает, что существуют особые "причинные свойства" мозга и нейронов, которые порождают умы : по его словам, «мозг порождает умы»

Связанные аргументы: мельница Лейбница, телефонная станция Дэвиса, китайская нация Блока и Болван

Готфрид Лейбниц выдвинул по существу те же аргументы, что и Сирл в 1714 году, используя мысленный эксперимент по расширению мозга до размеров а мельница. В 1974 году представил себе дублирование мозга с помощью телефонных линий и офисов, в которых работают люди, а в 1978 году Нед Блок представил, что все население Китая будет вовлечено в такую ​​симуляцию мозга. Этот мысленный эксперимент называется «Китайская нация» или «Китайский спортзал». Нед Блок также предложил свой аргумент Болван, который представляет собой версию Китайской комнаты, в которой программа была переработана в простой набор правил форма «смотри, делай то», убирающая с программы всю загадку.

Ответы на китайскую комнату

Ответы на китайскую комнату подчеркивают несколько разных моментов.

  • Ответ системы и ответ виртуального разума : Этот ответ утверждает, что система, включая человека, программу, комнату и карты, понимает китайский язык. Сирл утверждает, что человек в комнате - единственное, что могло бы «иметь разум» или «понимать», но другие не соглашаются, утверждая, что два разума могут находиться в одном и том же физическом месте, как и компьютер может одновременно «быть» двумя машинами одновременно: одна физическая (например, Macintosh ) и одна «виртуальная » (например, текстовый процессор ).
  • Скорость, мощность и сложность ответов : Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «картотеки» астрономических размеров. Это ставит под сомнение ясность интуиции Сирла.
  • Ответ робота : Чтобы по-настоящему понять, некоторые считают, что Китайской комнате нужны глаза и руки. Ханс Моравек пишет: «Если бы мы могли привить робота к программе рассуждений, нам не понадобился бы человек, который обеспечил бы значение больше: это будет исходить из физического мира. "
  • Ответ имитатора мозга : Что, если программа имитирует последовательность нервных импульсов в синапсах реального мозга говорящего по-китайски? Мужчина в комнате имитирует настоящий мозг. Это вариант «системного ответа», который кажется более правдоподобным, поскольку «система» теперь явно работает как человеческий мозг, что усиливает интуицию о том, что помимо человека в комнате есть что-то, что может понимать китайский язык.
  • Другое ответ разумов и ответ эпифеноменов : Некоторые люди отметили, что аргумент Сирла - это всего лишь версия проблемы других разумов, примененная к машинам. Поскольку трудно решить, думают ли люди «на самом деле», не следует удивляться тому, что трудно ответить на тот же вопрос о машинах.
Связанный с этим вопрос заключается в том, существует ли «сознание» (как его понимает Сирл). Сирл утверждает, что переживание сознания нельзя обнаружить, исследуя поведение машины, человека или любого другого животного. Дэниел Деннет указывает, что естественный отбор не может сохранить особенность животного, которая не влияет на поведение животного, и, следовательно, сознание (как его понимает Сирл) не может быть произведено естественным отбором. Следовательно, либо естественный отбор не привел к возникновению сознания, либо «сильный ИИ» верен в том смысле, что сознание может быть обнаружено соответствующим образом разработанным тестом Тьюринга.

Является ли мышление разновидностью вычисления?

вычислительная теория разума или «вычислитель » утверждает, что отношения между разумом и мозгом аналогичны (если не идентичны) отношениям между запущенной программой и компьютер. Эта идея имеет философские корни в Гоббсе (который утверждал, что рассуждение было «не более чем расчетом»), Лейбницем (который пытался создать логическое исчисление всех человеческих идей), Юм (считавший, что восприятие можно свести к «атомарным впечатлениям») и даже Кант (который анализировал весь опыт как управляемый формальными правилами). Последняя версия связана с философами Хилари Патнэм и Джерри Фодором.

. Этот вопрос связан с нашими предыдущими вопросами: если человеческий мозг является разновидностью компьютера, то компьютеры могут быть как разумными, так и сознательными, отвечая как на практические, так и на философские вопросы ИИ. Что касается практического вопроса ИИ («Может ли машина проявлять общий интеллект?»), Некоторые версии вычислительной техники утверждают, что (как писал Гоббс ):

  • Рассуждение - это не что иное, как расчет.

Другими словами, наш интеллект проистекает из формы вычислений, аналогичной арифметике. Это гипотеза физической системы символов, обсуждаемая выше, и она подразумевает, что искусственный интеллект возможен. Что касается философского вопроса об ИИ («Может ли машина иметь разум, ментальные состояния и сознание?»), Большинство версий вычислительного подхода утверждают, что (как Стеван Харнад характеризует его):

  • Психические состояния - это просто реализация (правильных) компьютерных программ.

Это «сильный ИИ» Джона Сёрла, о котором говорилось выше, и это реальная цель аргумента Китайская комната (согласно Харнад ).

Другие вопросы по теме

Алан Тьюринг отметил, что есть много аргументов в форме «машина никогда не сделает X», где X может быть множеством вещей, например:

Быть добрый, находчивый, красивый, дружелюбный, инициативный, обладающий чувством юмора, отличать хорошее от плохого, делать ошибки, влюбляться, наслаждаться клубникой и сливками, заставлять кого-то влюбиться в них, учиться на опыте, правильно использовать слова, быть предметом собственной мысли, иметь такое же разнообразие поведения, как и мужчина, делать что-то действительно новое.

Тьюринг утверждает, что эти возражения часто основаны на на наивных предположениях об универсальности машин или являются «замаскированными формами аргументации от сознания». Написание программы, демонстрирующей одно из этих поведений, «не произведет большого впечатления». Все эти аргументы касаются основной предпосылки ИИ, если только нельзя показать, что одна из этих черт важна для общего интеллекта.

Может ли машина вызывать эмоции?

Если «эмоции » определены только с точки зрения их влияния на поведение или на то, как они функционируют внутри организма, тогда эмоции могут рассматриваться как механизм, который интеллектуальный агент использует для максимизации полезности своих действий. Учитывая такое определение эмоции, Ханс Моравец считает, что «роботы в целом будут очень эмоциональны, если будут хорошими людьми». Страх - это безотлагательный источник. Сочувствие - необходимый компонент хорошего взаимодействия человека с компьютером. Он говорит, что роботы «будут пытаться доставить вам удовольствие очевидным самоотверженным образом, потому что они будут испытывать острые ощущения от этого положительного подкрепления. Вы можете интерпретировать это как своего рода любовь». Даниэль Кревье пишет: «Моравец считает, что что эмоции - это всего лишь средства для направления поведения в направлении, благоприятном для выживания человека ».

Может ли машина быть самосознательной?

"Самосознание ", как отмечалось выше, иногда используется писателями-фантастами как название основного человеческого свойства, которое делает персонажа полностью человеком. Тьюринг отбрасывает все другие свойства человека и сводит вопрос к следующему: «Может ли машина быть предметом собственной мысли?» Может ли она думать о себе? С этой точки зрения можно написать программу, которая может сообщать о своих внутренних состояниях, например отладчик. Хотя, возможно, самосознание часто предполагает немного больше возможностей; машина, которая может каким-то образом приписывать значение не только своему собственному состоянию, но и в целом постулирует вопросы без веских ответов: контекстуальная природа своего существования сейчас; как он сравнивается с прошлыми состояниями или планами на будущее, пределы и ценность своего рабочего продукта, как он воспринимает свою работу, чтобы ее оценили или сравнили с другими.

Может ли машина быть оригинальной или творческой?

Тьюринг сводит это к вопросу о том, является ли машина оригинальной. может «застать нас врасплох» и утверждает, что это, очевидно, правда, что может подтвердить любой программист. Он отмечает, что при достаточном объеме памяти компьютер может вести себя астрономическим числом различных способов. Для компьютера, который может представлять идеи, должно быть возможно, даже тривиально, объединить их по-новому. (Автоматизированный математик Дугласа Лената, например, объединил идеи для открытия новых математических истин.) Каплан и Хенлейн предполагают, что машины могут проявлять научное творчество, в то время как кажется вероятным, что люди одержат верх в том, что касается художественного творчества.

В 2009 году ученые из Университета Аберистуита в Уэльсе и Кембриджского университета Великобритании разработали робота по имени Адам, которого они считают первая машина, которая самостоятельно пришла к новым научным открытиям. Также в 2009 году исследователи из Cornell разработали Eureqa, компьютерную программу, которая экстраполирует формулы в соответствии с введенными данными, например, нахождение законов движения на основе движения маятника.

Может машина быть доброжелательной или враждебной?

Этот вопрос (как и многие другие в философии искусственного интеллекта) можно представить в двух формах. «Враждебность» может быть определена в терминах функция или поведение, и в этом случае «враждебный» становится синонимом «опасного». Или это можно определить с точки зрения намерения: может ли машина «сознательно» намереваться причинить вред? Последний вопрос - "может ли машина иметь сознательные состояния?" (например, намерения ) в другой форме.

Вопрос о том, будут ли опасны высокоинтеллектуальные и полностью автономные машины, подробно исследовался футуристами (такими как Институт сингулярности ). Очевидный элемент драмы также сделал эту тему популярной в научной фантастике, которая рассмотрела множество различных возможных сценариев, в которых интеллектуальные машины представляют угрозу человечеству; см. Искусственный интеллект в художественной литературе.

Одна из проблем заключается в том, что машины могут очень быстро приобрести автономность и интеллект, необходимые для того, чтобы быть опасными. Вернор Виндж предположил, что всего за несколько лет компьютеры внезапно станут в тысячи или миллионы раз умнее людей. Он называет это «Сингулярностью ». Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для человека. Это обсуждается в философии под названием сингулярности.

В 2009 году ученые и технические эксперты посетили конференцию, чтобы обсудить потенциальное влияние роботов и компьютеров и т. Д. влияние гипотетической возможности того, что они могут стать самодостаточными и иметь возможность принимать свои собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы создать угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканского интеллекта». Они отметили, что самосознание, изображенное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда такие роботы дается некоторая степень автономных функций. ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения.

Президент Ассоциации содействия развитию Искусственный интеллект заказал исследование, чтобы изучить этот вопрос. Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Некоторые высказывают предположение о необходимости создания «Дружественного ИИ », что означает, что достижения, которые уже происходят с ИИ, также должны включать в себя попытки сделать ИИ по своей сути дружественным и гуманным.

Может ли машина иметь душу?

Наконец, те, кто верит в существование души, могут возразить, что «мышление - это функция бессмертной души человека». Алан Тьюринг назвал это «теологическим возражением». Он пишет

Пытаясь сконструировать такие машины, мы не должны непочтительно узурпировать Его силу созидания душ, как и в случае деторождения: скорее, в любом случае мы являемся инструментами Его воли, обеспечивающими особняки для души, которые Он создает.

Взгляды на роль философии

Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно. В Стэнфордской энциклопедии философии некоторые философы утверждают, что роль философии в ИИ недооценивается. Физик Дэвид Дойч утверждает, что без понимания философии или ее концепций развитие ИИ будет страдать от отсутствия прогресса.

Конференции

Основная серия конференций по этой проблеме это «Философия и теория искусственного интеллекта» (PT-AI), управляемая Винсентом К. Мюллером.

Основная библиография по этой теме с несколькими подразделами находится на PhilPapers.

См. Также

  • Философский портал
  • Психологический портал
  • значок Научный портал

Notes

Ссылки

Приведенные выше номера страниц и содержание диаграмм относятся к распечатке статьи в лицее PDF.
Последняя правка сделана 2021-06-02 03:46:54
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте