AI winter

редактировать
Период сокращения финансирования и интереса к AI

В истории искусственного интеллекта, Зима ИИ- это период сокращения финансирования и интереса к исследованиям искусственного интеллекта. Этот термин был придуман по аналогии с идеей ядерной зимы. Эта область пережила несколько циклов ажиотажа, за которыми последовали разочарование и критика, за которыми последовало сокращение финансирования, за которым последовало возобновление интереса спустя годы или десятилетия.

Термин впервые появился в 1984 году как тема публичных дебатов на ежегодном собрании AAAI (тогда называемой «Американской ассоциацией искусственного интеллекта»). Это цепная реакция, которая начинается с пессимизма в сообществе ИИ, за которым следует пессимизм в прессе, за которым следует серьезное сокращение финансирования, за которым следует прекращение серьезных исследований. На встрече Роджер Шенк и Марвин Мински - два ведущих исследователя ИИ, пережившие «зиму» 1970-х, предупредили бизнес-сообщество, что энтузиазм в отношении ИИ вышел из-под контроля. в 80-е годы, и это разочарование обязательно последует. Три года спустя индустрия искусственного интеллекта стоимостью в миллиард долларов начала рушиться.

Шумиха распространена во многих новых технологиях, таких как железнодорожная мания или пузырь доткомов. Зима с искусственным интеллектом стала результатом такой ажиотажа из-за завышенных обещаний разработчиков, неестественно завышенных ожиданий со стороны конечных пользователей и обширного продвижения в СМИ. Несмотря на взлет и падение репутации ИИ, он продолжает разрабатывать новые успешные технологии. Исследователь ИИ Родни Брукс в 2002 году жаловался, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ находится рядом с вами каждую секунду дня». В 2005 году Рэй Курцвейл согласился: «Многие наблюдатели все еще думают, что зима ИИ стала концом истории и что с тех пор ничего не вышло из области ИИ. Тем не менее, сегодня многие тысячи приложений ИИ глубоко встроены в инфраструктура каждой отрасли ».

Энтузиазм и оптимизм по поводу ИИ в целом возросли с момента его пика в начале 1990-х годов. Примерно с 2012 года интерес к искусственному интеллекту (и особенно к подобласти машинного обучения ) со стороны исследовательских и корпоративных сообществ привел к резкому увеличению финансирования и инвестиций.

Содержание
  • 1 Обзор
  • 2 Ранние эпизоды
    • 2.1 Машинный перевод и отчет ALPAC 1966 года
    • 2.2 Отказ от коннекционизма в 1969 году
  • 3 Неудачи 1974 года
    • 3.1 Отчет Лайтхилла
    • 3.2 Сокращение финансирования DARPA в начале 1970-х годов
    • 3.3 Падение SUR
  • 4 Неудачи конца 1980-х и начала 1990-х
    • 4.1 Падение рынка машин LISP в 1987 году
    • 4.2 Замедление развертывания экспертных систем
    • 4.3 Окончание проекта «Пятое поколение»
    • 4.4 Сокращения в рамках Стратегической вычислительной инициативы
  • 5 Изменения после зимы с ИИ
    • 5.1 Интеграция ИИ
    • 5.2 Финансирование ИИ
    • 5.3 Текущий "ИИ весна »
  • 6 Причины, лежащие в основе зимнего искусственного интеллекта
    • 6.1 Хайп
    • 6.2 Институциональные факторы
    • 6.3 Экономические факторы
    • 6.4 Недостаточная вычислительная мощность
    • 6.5 Пустой трубопровод
    • 6.6 Неспособность адаптироваться
  • 7 Аргументы и дебаты о прошлом и будущем AI
  • 8 См. Также
  • 9 Примечания
  • 10 Ссылки
  • 11 Дополнительная литература
  • 12 Внешние ссылки
Обзор

Th Были две большие зимы в 1974–1980 и 1987–1993 годах и несколько небольших эпизодов, в том числе следующие:

Ранние эпизоды

Машинный перевод и отчет ALPAC 1966 года

Во время холодной войны правительство США был особенным Вас интересует автоматический, мгновенный перевод документов и научных отчетов на русский язык. Правительство активно поддерживало усилия по машинному переводу, начиная с 1954 года. Вначале исследователи были настроены оптимистично. Новая работа Ноама Хомского по грамматике заключалась в оптимизации процесса перевода, и было «много предсказаний неизбежных« прорывов »».

Брифинг для вице-президента США Джеральда Форд в 1973 г. о модели компьютерного перевода на основе грамматики

Однако исследователи недооценили огромную трудность устранения неоднозначности слов. Чтобы перевести предложение, машине нужно было иметь представление о том, о чем идет речь, иначе она допускала ошибки. Апокрифический пример: «дух желает, а плоть немощна». В переводе на русский язык получилось: «водка хорошая, а мясо гнилое». Точно так же «вне поля зрения, из виду» стал «слепым идиотом». Позже исследователи назвали бы это проблемой здравого смысла.

К 1964 году Национальный исследовательский совет был обеспокоен отсутствием прогресса и сформировал Консультативный комитет по автоматической обработке языка (ALPAC ). разобраться в проблеме. В известном отчете 1966 года они пришли к выводу, что машинный перевод дороже, менее точен и медленнее, чем человеческий перевод. Потратив около 20 миллионов долларов, NRC прекратил всякую поддержку. Карьера была разрушена, и исследования были прекращены.

Машинный перевод все еще открытая исследовательская проблема в 21 веке, которая имела определенный успех (Google Translate, Yahoo Babel Fish ).

Отказ от коннекционизма в 1969 году

См. Также: Персептроны и Фрэнк Розенблатт

В некоторых из самых ранних работ в области искусственного интеллекта для моделирования использовались сети или схемы соединенных устройств. разумное поведение. Примеры такого рода работы, называемой «коннекционизмом», включают Уолтера Питтса и Уоррена Маккаллоу, первое описание нейронной сети для логики и Марвин Мински работает над системой SNARC. В конце 1950-х годов от большинства этих подходов отказались, когда исследователи начали исследовать символическое рассуждение как сущность интеллекта после успеха таких программ, как Logic Theorist и Решение общих проблем.

Тем не менее, один тип коннекционистской работы продолжался: изучение перцептронов, изобретенных Фрэнком Розенблаттом, который поддерживал сферу деятельности своим умением продавать и чистой силой своей личности. Он оптимистично предсказал, что перцептрон «в конечном итоге сможет учиться, принимать решения и переводить языки». Основные исследования перцептронов внезапно прекратились в 1969 году, когда Марвин Мински и Сеймур Паперт опубликовали книгу Персептроны, которая была воспринята как очерчивающая пределы того, что перцептроны могут сделать.

Коннекционистские подходы были заброшены в течение следующего десятилетия или около того. В то время как важная работа, такая как открытие Полом Вербосом обратного распространения, продолжалась в ограниченном объеме, в 1970-х и начале 1980-х было трудно найти серьезное финансирование для коннекционистских проектов. «Зима» коннекционистских исследований подошла к концу в середине 1980-х, когда работы Джона Хопфилда, Дэвида Рамелхарта и других возродили массовый интерес к нейронным сетям. Однако Розенблатт не дожил до этого, так как он погиб в катастрофе вскоре после публикации «Персептронов».

Неудачи 1974 г.

Отчет Лайтхилла

1973 г. , профессор сэра Джеймса Лайтхилла попросил парламент Великобритании оценить состояние исследований ИИ в Соединенном Королевстве. В его отчете, который теперь называется отчетом Лайтхилла, критиковалась полная неспособность ИИ достичь своих «грандиозных целей». Он пришел к выводу, что ничего, что делается в искусственном интеллекте, невозможно сделать в других науках. Он особо упомянул проблему «комбинаторного взрыва » или «неразрешимости », которые подразумевали, что многие из наиболее успешных алгоритмов ИИ будут останавливаться на реальных проблемах и подходят только для решение "игрушечных" версий.

Отчет был оспорен в ходе дебатов, транслировавшихся в сериале BBC "Controversy" в 1973 году. Дебаты Королевского института "Робот общего назначения - мираж" были противостоят Лайтхиллу команде из Дональда Мичи, Джона Маккарти и Ричарда Грегори. Позже Маккарти писал, что «проблема комбинаторного взрыва была признана в ИИ с самого начала».

Отчет привел к полному прекращению исследований ИИ в Англии. Исследования ИИ продолжались только в нескольких университетах (Эдинбург, Эссекс и Сассекс). Исследования не возродились в больших масштабах до 1983 года, когда Алви (исследовательский проект британского правительства) снова начал финансировать ИИ из военного фонда в размере 350 миллионов фунтов стерлингов в ответ на японский проект пятого поколения ( увидеть ниже). У Алви был ряд требований только для Великобритании, которые не устраивали на международном уровне, особенно с партнерами из США, и потерял финансирование фазы 2.

Сокращение финансирования DARPA в начале 1970-х годов

В 1960-е годы Агентство перспективных оборонных исследовательских проектов (тогда известное как «ARPA», теперь известное как «DARPA») предоставило миллионы долларов на исследования ИИ без каких-либо ограничений. Директор DARPA в те годы Дж. CR Licklider верил в «финансирование людей, а не проектов» и позволил лидерам AI (таким как Марвин Мински, Джон Маккарти, Герберт А. Саймон или Аллен Ньюэлл ) тратить их практически так, как им нравится.

Это отношение изменилось после принятия Поправки Мэнсфилда в 1969 году, которая требовала от DARPA финансирования «целенаправленных прямых исследований, а не фундаментальных неориентированных исследований». Чистые ненаправленные исследования, подобные тем, которые проводились в 1960-х годах, больше не будут финансироваться DARPA. Теперь исследователи должны были показать, что их работа скоро приведет к появлению полезных военных технологий. Предложения по исследованию ИИ соответствовали очень высоким стандартам. Ситуация не улучшилась, когда в отчете Lighthill и собственном исследовании DARPA было высказано предположение, что большинство исследований ИИ вряд ли принесут что-то действительно полезное в обозримом будущем. Деньги DARPA были направлены на конкретные проекты с определенными целями, такие как автономные танки и системы управления боем. К 1974 г. было трудно найти финансирование для проектов ИИ.

Исследователь ИИ Ханс Моравец возложил ответственность за кризис на нереалистичные прогнозы своих коллег: «Многие исследователи оказались в сети растущего преувеличение. Их первоначальные обещания DARPA были слишком оптимистичными. Конечно, то, что они сделали, не хватало. Но они чувствовали, что не могут в своем следующем предложении обещать меньше, чем в первом, поэтому обещали больше ». В результате, утверждает Моравец, некоторые сотрудники DARPA потеряли терпение в исследованиях ИИ. «В DARPA буквально было сказано, что« некоторым из этих людей будет преподан урок, [] сократив их контракты на два миллиона долларов в год почти до нуля! »- сказал Моравец Даниэлю Кревье.

Хотя проект автономного танка провалился, система управления боем (Инструмент динамического анализа и перепланирования ) оказалась чрезвычайно успешной, сэкономив миллиарды долларов в первой войне в Персидском заливе, окупив все вложения DARPA в ИИ и оправдание прагматической политики DARPA.

Фиаско с SUR

DARPA было глубоко разочаровано исследователями, работающими над программой исследования понимания речи в Университете Карнеги-Меллона. Агентство DARPA надеялось и чувствовало, что оно было обещано, на систему, способную реагировать на голосовые команды пилота. Команда SUR разработала систему, которая могла распознавать разговорный английский, но только если слова произносились в определенном порядке. DARPA сочло, что его обманули, и в 1974 году отменило грант в три миллиона долларов в год.

Много лет спустя несколько успешных коммерческих систем распознавания речи будут использовать технологию, разработанную Команда Карнеги-Меллона (например, скрытые модели Маркова ) и рынок систем распознавания речи к 2001 году достигнут 4 миллиардов долларов.

Неудачи конца 1980-х - начала 1990-х годов

Обвал рынка машин LISP в 1987 году

В 1980-х годах форма программы ИИ, называемая «экспертной системой », была принята корпорациями по всему миру. Первой коммерческой экспертной системой была XCON, разработанная в Carnegie Mellon для Digital Equipment Corporation, и она имела огромный успех: по оценкам, она спасла компанию 40 миллионов долларов всего за шесть лет эксплуатации. Корпорации по всему миру начали разрабатывать и развертывать экспертные системы, и к 1985 году они потратили более миллиарда долларов на ИИ, большую часть из них - внутренние отделы ИИ. Для их поддержки выросла отрасль, в том числе компании-разработчики программного обеспечения, такие как и Intellicorp (KEE), и компании по производству оборудования, такие как Symbolics и LISP Machines Inc., которые создавали специализированные компьютеры. , называемые LISP-машины, которые были оптимизированы для обработки языка программирования LISP, предпочтительного языка для ИИ.

В 1987 году, через три года после <198 Мински и Шэнка>прогноз, рынок специализированного оборудования для искусственного интеллекта рухнул. Рабочие станции таких компаний, как Sun Microsystems, предложили мощную альтернативу машинам LISP, а такие компании, как Lucid, предложили среду LISP для этого нового класса рабочих станций. Производительность этих обычных рабочих станций становилась все более сложной задачей для LISP Machines. Такие компании, как Lucid и Franz LISP, предлагали все более мощные версии LISP, переносимые на все системы UNIX. Например, были опубликованы тесты производительности, показывающие, что рабочие станции имеют преимущество в производительности по сравнению с машинами LISP. Более поздние настольные компьютеры, построенные Apple и IBM, также будут предлагать более простую и популярную архитектуру для запуска приложений LISP. К 1987 году некоторые из них стали такими же мощными, как более дорогие LISP-машины. На настольных компьютерах были доступны механизмы на основе правил, такие как CLIPS. Эти альтернативы не оставили потребителям причин покупать дорогостоящую машину, специализированную для работы с LISP. Целая отрасль стоимостью полмиллиарда долларов была заменена за один год.

С коммерческой точки зрения многие LISP компании потерпели неудачу, например Symbolics, LISP Machines Inc., Lucid Inc. и т. Д. , как и Texas Instruments и Xerox, отказались от этой области. Однако ряд компаний-заказчиков (то есть компаний, использующих системы, написанные на LISP и разработанные на машинных платформах LISP) продолжали поддерживать системы. В некоторых случаях это обслуживание предполагало выполнение работ по поддержке.

Замедление развертывания экспертных систем

К началу 1990-х годов самые ранние успешные экспертные системы, такие как XCON, оказались слишком дорогими в обслуживании. Их было трудно обновлять, они не могли учиться, они были «хрупкими» (т. Е. Могли совершать гротескные ошибки при вводе необычных данных) и становились жертвами проблем (таких как квалификационная проблема ), которые были выявлены годами ранее в исследованиях немонотонной логики. Экспертные системы оказались полезными, но только в некоторых особых контекстах. Другая проблема связана с вычислительной трудностью поддержания истины усилий для общих знаний. KEE использовала подход, основанный на предположениях (см. НАСА, TEXSYS ), поддерживая сценарии с множеством миров, которые было трудно понять и применить.

Немногим оставшимся компаниям-оболочкам экспертных систем в конечном итоге пришлось сократить размеры и искать новые рынки и парадигмы программного обеспечения, такие как рассуждение на основе случаев или универсальный доступ к базам данных. Развитие Common Lisp спасло многие системы, такие как ICAD, которые нашли применение в инженерии, основанной на знаниях. Другие системы, такие как Intellicorp's KEE, перешли с LISP на C ++ (вариант) на ПК и помогли установить объектно-ориентированную технологию (включая обеспечение основной поддержки для разработки UML ( см. UML Partners ).

Конец проекта пятого поколения

В 1981 году Министерство международной торговли и промышленности Японии выделило 850 долларов миллионов на проект компьютер пятого поколения. Их цель состояла в том, чтобы писать программы и создавать машины, которые могли бы вести разговоры, переводить языки, интерпретировать изображения и рассуждать как люди. К 1991 году был составлен впечатляющий список целей в 1981 году не были выполнены. Действительно, некоторые из них не были выполнены в 2001 или 2011 году. Как и в случае с другими проектами ИИ, ожидания были намного выше, чем было возможно на самом деле.

Стратегические сокращения инициативы в области вычислений

В 1983 году в ответ на проект пятого поколения DARPA снова начало финансировать исследования ИИ через Стратегическая вычислительная инициатива. Первоначально предполагалось, что проект будет начинаться с практических, достижимых целей, которые даже включают искусственный интеллект в качестве долгосрочной цели. Программа находилась под руководством Управления технологий обработки информации (IPTO) и была также направлена ​​на суперкомпьютеры и микроэлектронику. К 1985 году было потрачено 100 миллионов долларов, и 92 проекта находились в стадии реализации в 60 учреждениях, половина из которых - в промышленности, половина - в университетах и ​​государственных лабораториях. Исследования ИИ щедро финансировались SCI.

Джек Шварц, который возглавил IPTO в 1987 году, назвал экспертные системы «умным программированием» и урезал финансирование ИИ «глубоко и жестоко», «потрошив». SCI. Шварц считал, что DARPA должно сосредоточить свое финансирование только на тех технологиях, которые являются наиболее многообещающими. По его словам, DARPA должно «заниматься серфингом», а не «веслом для собак», и он был твердо уверен, что ИИ не «следующая волна». Инсайдеры программы указали на проблемы в общении, организации и интеграции. Несколько проектов пережили сокращение финансирования, в том числе помощник пилота и автономный наземный транспорт (которые так и не были доставлены) и система управления боем DART, которая (как отмечалось выше) была успешной.

Разработки после зимы с искусственным интеллектом

Обзор отчетов начала 2000-х годов показывает, что репутация ИИ все еще была менее звездной:

  • Алекс Кастро, цитата из журнала The Economist, 7 июня 2007 г.: «[Инвесторов] оттолкнул термин« голос » признание », которое, как и« искусственный интеллект », ассоциируется с системами, которые слишком часто не оправдывают своих обещаний».
  • Пэтти Таскарелла в Pittsburgh Business Times, 2006: » Некоторые считают, что слово «робототехника» на самом деле несет клеймо, которое снижает шансы компании на получение финансирования ».
  • Джон Маркофф в New York Times, 2005:« В самый низкий период некоторые компьютерные ученые и инженеры-программисты избегали термин «искусственный интеллект» из-за страха прослыть мечтателями с безумными глазами ».

Многие исследователи i n ИИ в середине 2000-х сознательно называл свою работу другими названиями, такими как информатика, машинное обучение, аналитика, системы, основанные на знаниях,, бизнес управление правилами, когнитивные системы, интеллектуальные системы, интеллектуальные агенты или вычислительный интеллект, чтобы указать, что их работа делает упор на определенные инструменты или направлена ​​на конкретный подзадача. Хотя отчасти это может быть связано с тем, что они считают свою сферу деятельности фундаментально отличной от ИИ, верно также и то, что новые имена помогают получать финансирование, избегая клейма ложных обещаний, связанных с названием «искусственный интеллект».

Интеграция ИИ

В конце 1990-х и начале 21 века технология ИИ стала широко использоваться в качестве элементов более крупных систем, но эти успехи редко приписывают этой области. В 2006 году Ник Бостром объяснил, что «многие передовые ИИ проникли в общие приложения, часто не называемые ИИ, потому что, как только что-то становится достаточно полезным и достаточно распространенным, оно больше не именуется ИИ». Родни Брукс заявил примерно в то же время, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ окружает вас каждую секунду дня».

Технологии, разработанные исследователями ИИ, достигли коммерческого успеха в ряде таких областей, как машинный перевод, интеллектуальный анализ данных, промышленная робототехника, логистика, распознавание речи, банковское программное обеспечение, медицинская диагностика и поисковая система Google.

Контроллеры с нечеткой логикой были разработаны для автоматических коробок передач в автомобилях (Audi TT, VW Touareg и VW Caravell 2006 года оснащены трансмиссией DSP, использующей нечеткую логику, несколько вариантов Škoda (Škoda Fabia ) также в настоящее время включают контроллер на основе нечеткой логики). Датчики камеры широко используют нечеткую логику для включения фокусировки.

Эвристический поиск и анализ данных - это технологии, разработанные на основе эволюционных вычислений и подразделения машинного обучения исследовательского сообщества ИИ. Опять же, эти методы были применены к широкому кругу реальных проблем со значительным коммерческим успехом.

Технология анализа данных, использующая алгоритмы для автоматизированного формирования классификаторов, которые были разработаны в сообществе контролируемого машинного обучения в 1990-х годах (например, TDIDT, Support Vector Machines, Neural Nets, IBL), теперь повсеместно используются компаниями. для нацеливания маркетинговых исследований и выявления тенденций и функций в наборах данных.

Финансирование ИИ

Исследователи и экономисты часто оценивали состояние зимы ИИ, анализируя, какие проекты ИИ финансировались, в каком объеме и кем. Тенденции в финансировании часто устанавливаются крупными финансовыми агентствами в развитых странах. В настоящее время DARPA и программа гражданского финансирования под названием EU-FP7 обеспечивают большую часть финансирования исследований ИИ в США и Европейском Союзе.

. В 2007 году DARPA запрашивало предложения по исследованиям ИИ в рамках количество программ, включая The Grand Challenge Program, Система предупреждения об угрозах когнитивных технологий (CT2WS), «Нейронные устройства с участием человека (SN07-43)», «Автономное наземное повсеместное наблюдение в реальном времени. -Система визуализации (ARGUS-IS) »и« Городское обоснование и технология геопространственной эксплуатации (СРОЧНО) »

Возможно, наиболее известна программа DARPA Grand Challenge, которая разработала полностью автоматизированные дорожные транспортные средства, которые могут успешно перемещаться по местности в реальном мире. полностью автономный мод.

DARPA также поддерживает программы в семантической сети с большим упором на интеллектуальное управление контентом и автоматическое понимание. Однако Джеймс Хендлер, менеджер программы DARPA в то время, выразил некоторое разочарование способностью правительства добиться быстрых изменений и перешел к работе с Консорциумом Всемирной паутины для перехода технологии в частный сектор.

Программа финансирования EU-FP7 предоставляет финансовую поддержку исследователям из Европейского Союза. В 2007–2008 гг. Он финансировал исследования ИИ в рамках программы «Когнитивные системы: взаимодействие и робототехника» (193 млн евро), программы электронных библиотек и контента (203 млн евро) и программы FET (185 млн евро).

Текущее состояние «Весна искусственного интеллекта»

Заметное увеличение финансирования, разработки, развертывания и коммерческого использования искусственного интеллекта привело к мысли, что зима искусственного интеллекта давно закончилась. Время от времени высказываются опасения, что новая зима ИИ может быть спровоцирована чрезмерно амбициозными или нереалистичными обещаниями известных ученых в области ИИ или чрезмерными обещаниями со стороны коммерческих поставщиков.

Успехами нынешней «весны искусственного интеллекта» являются достижения в языковом переводе (в частности, Google Translate ), распознавании изображений (чему способствует обучающая база данных ImageNet ) как коммерческое использование Поиск изображений Google, и в игровых системах, таких как AlphaZero (чемпион по шахматам) и AlphaGo (чемпион по го) и Watson (Jeopardy чемпион). Большинство этих достижений произошло в период 2010-2017 гг.

Основные причины зим ИИ

Было выдвинуто несколько объяснений причин зим ИИ в целом. По мере того, как ИИ переходил от приложений, финансируемых государством, к коммерческим, в игру вступала новая динамика. Хотя ажиотаж является наиболее часто упоминаемой причиной, объяснения не обязательно взаимоисключающие.

Хайп

Зимы искусственного интеллекта можно отчасти понять как последовательность завышенных ожиданий и последующего краха фондовых рынков, примером которого является железнодорожная мания и пузырь доткомов. В обычном паттерне развития новых технологий (известном как цикл ажиотажа) событие, обычно технологический прорыв, создает рекламу, которая подпитывается сама собой, чтобы создать «пик завышенных ожиданий», за которым следует «впадина разочарования». Поскольку научно-технический прогресс не успевает за ростом ожиданий инвесторов и других заинтересованных сторон, вызванного оглаской, должен последовать крах. Технология искусственного интеллекта, похоже, не является исключением из этого правила.

Например, в 1960-х годах осознание того, что компьютеры могут моделировать одноуровневые нейронные сети, привело к циклу ажиотажа в нейронных сетях, который длился до публикации в 1969 году книга Персептроны, которые сильно ограничили набор проблем, которые могут быть оптимально решены с помощью одноуровневых сетей. В 1985 году осознание того, что нейронные сети могут использоваться для решения задач оптимизации, в результате известных работ Хопфилда и Танка, а также угроза японского проекта 5-го поколения, привело к возобновлению интереса и применения.

Институциональные факторы

Другой фактор - место ИИ в организации университетов. Исследования ИИ часто принимают форму междисциплинарных исследований. Следовательно, ИИ подвержен тем же проблемам, с которыми сталкиваются другие типы междисциплинарных исследований. Финансирование направляется через существующие отделы, и во время урезания бюджета будет тенденция скрывать «основное содержание» каждого отдела за счет междисциплинарных и менее традиционных исследовательских проектов.

Экономические факторы

Спады в национальной экономике страны приводят к сокращению бюджета университетов. Тенденция «основного содержания» ухудшает влияние на исследования ИИ, и инвесторы на рынке, вероятно, вкладывают свои деньги в менее рискованные предприятия во время кризиса. Вместе это может превратить экономический спад в зиму искусственного интеллекта. Стоит отметить, что отчет Lighthill появился во время экономического кризиса в Великобритании, когда университеты были вынуждены сократить расходы и вопрос заключался только в том, какие программы следует принять.

Недостаточные вычислительные возможности

В начале истории вычислений потенциал нейронных сетей понимался, но никогда не был реализован. Довольно простые сети требуют значительных вычислительных мощностей даже по сегодняшним стандартам.

Пустой конвейер

Обычно взаимосвязь между фундаментальными исследованиями и технологиями рассматривается как конвейер. Достижения в фундаментальных исследованиях приводят к успехам в прикладных исследованиях, которые, в свою очередь, приводят к новым коммерческим приложениям. Исходя из этого, часто утверждают, что отсутствие фундаментальных исследований приведет к падению рыночных технологий через несколько лет. Эту точку зрения поддержал Джеймс Хендлер в 2008 году, когда он заявил, что падение экспертных систем в конце 80-х было вызвано не врожденной и неизбежной хрупкостью экспертных систем, а сокращением финансирования фундаментальных исследований в 1970-х. Эти экспертные системы развивались в 1980-х годах благодаря прикладным исследованиям и разработке продуктов, но к концу десятилетия трубопровод иссяк, и экспертные системы были неспособны производить улучшения, которые могли бы преодолеть эту хрупкость и обеспечить дальнейшее финансирование.

Неспособность адаптироваться

Падение рынка машин LISP и провал компьютеров пятого поколения были случаями, когда дорогие передовые продукты были вытеснены более простыми и дешевыми альтернативами. Это соответствует определению низкоуровневой прорывной технологии, при которой производители LISP-машин остаются на обочине. Экспертные системы были перенесены на новые настольные компьютеры, например, CLIPS, поэтому падение рынка LISP-машин и падение экспертных систем, строго говоря, являются двумя отдельными событиями. Тем не менее, неспособность адаптироваться к таким изменениям во внешней вычислительной среде упоминается как одна из причин зимы ИИ 1980-х.

Аргументы и дебаты о прошлом и будущем ИИ

Некоторые философы, когнитивные ученые и ученые-информатики размышляли о том, где ИИ мог потерпеть неудачу и что ждет его в будущем. Хьюберт Дрейфус выделил ошибочные предположения прошлых исследований ИИ и еще в 1966 году правильно предсказал, что первая волна исследований ИИ не сможет выполнить публичные обещания, которые она давала.. Другие критики, такие как Ноам Хомский, утверждали, что ИИ движется в неправильном направлении, отчасти из-за его сильной зависимости от статистических методов. Комментарии Хомского вписываются в более широкую дискуссию с Питером Норвигом, сосредоточенную вокруг роли статистических методов в ИИ. Обмен между ними начался с комментариев, сделанных Хомским на симпозиуме в Массачусетском технологическом институте, на которые Норвиг написал ответ.

См. Также
Дополнительная литература
  • Маркус, Гэри, «Я человек ?: Исследователям нужны новые способы отличить искусственный интеллект от естественного», Scientific American, vol. 316, нет. 3 (март 2017 г.), стр. 58–63. Необходимы множественные тесты на эффективность искусственного интеллекта, потому что «так же, как не существует единого теста спортивного мастерства, не может быть одного окончательного теста интеллекта. " Один из таких тестов, «Строительный вызов», будет проверять восприятие и физическое действие - «два важных элемента разумного поведения, которые полностью отсутствовали в исходном тесте Тьюринга ». Другое предложение заключалось в том, чтобы дать машинам те же стандартные тесты по естествознанию и другим дисциплинам, которые сдают школьники. Пока что непреодолимым камнем преткновения для искусственного интеллекта является неспособность надежного устранения неоднозначности. «[V] Практически каждое предложение [которое люди генерируют] неоднозначно, часто по-разному». Яркий пример известен как «проблема устранения неоднозначности местоимений»: машина не имеет возможности определить, кому или какому местоимение в предложении - например, «он», «она» или «оно» -
  • Люк Мюльхаузер (сентябрь 2016 г.). «Чему мы должны научиться из прошлых прогнозов ИИ?». Open Philanthropy Project.
Внешние ссылки
Последняя правка сделана 2021-06-07 21:12:54
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте