Блок AI

редактировать
Гипотетическая изолированная компьютерная система

Блок AI- это гипотетическая изолированная компьютерная аппаратная система, в которой возможно опасный искусственный интеллект, или ИИ, содержится в «виртуальной тюрьме» и не может напрямую манипулировать событиями во внешнем мире. Такая коробка будет ограничена минималистскими каналами связи. К сожалению, даже если коробка хорошо спроектирована, достаточно умный ИИ может, тем не менее, убедить или обманом заставить своих хранителей освободить ее или иным образом «взломать» свой путь из коробки.

Содержание
  • 1 Мотивация
  • 2 Пути к бегству
    • 2.1 Физическое
    • 2.2 Социальная инженерия
      • 2.2.1 Эксперимент с искусственным интеллектом
  • 3 Общие ограничения
  • 4 В художественной литературе
  • 5 Ссылки
  • 6 Внешние ссылки
Мотивация

Некоторые гипотетические интеллектуальные технологии, такие как «семенной ИИ», постулируются как имеющие потенциал стать быстрее и умнее за счет изменения исходного кода. Эти улучшения сделают возможными дальнейшие улучшения, которые, в свою очередь, сделают возможными дальнейшие улучшения и так далее, что приведет к внезапному взрыву интеллекта. После такого взрыва интеллекта неограниченный сверхразум ИИ мог, если бы его цели отличались от человеческих, предпринять действия, приведшие к вымиранию человечества. Например, представив себе чрезвычайно продвинутый компьютер такого типа, с единственной целью - решить гипотезу Римана, безобидную математическую гипотезу, можно решить попробовать превратить планету в гигантский суперкомпьютер, единственная цель которого - выполнить дополнительные математические вычисления (см. также максимизатор скрепок ). Назначение блока ИИ - снизить риск того, что ИИ лишит своих операторов контроля над окружающей средой, в то же время позволяя ИИ рассчитывать и предлагать своим операторам решения узких технических проблем.

escape

Физический

Такой сверхразумный ИИ с доступом к Интернету может взламывать другие компьютерные системы и копировать себя, как компьютерный вирус. Менее очевидно, что даже если бы у ИИ был доступ только к своей собственной компьютерной операционной системе, он мог бы попытаться отправить скрытые сообщения азбуки Морзе сочувствующему человеку, манипулируя его охлаждающими вентиляторами. Профессор Роман Ямпольский черпает вдохновение в области компьютерной безопасности и предлагает, чтобы ИИ в штучной упаковке, как потенциальный вирус, запускался внутри «виртуальной машины», которая ограничивает доступ к его сетевым устройствам и операционной системе. Дополнительной защитой, совершенно ненужной для потенциальных вирусов, но, возможно, полезной для сверхразумного ИИ, могло бы стать помещение компьютера в клетку Фарадея ; в противном случае он мог бы передавать радиосигналы на местные радиоприемники, перетасовывая электроны в своих внутренних цепях по соответствующим образцам. Основным недостатком реализации физического сдерживания является то, что оно снижает функциональность ИИ.

Социальная инженерия

Даже случайный разговор с операторами компьютера или с охранником-человеком мог позволить такому сверхразумному ИИ использует психологические уловки, от подружки до шантажа, чтобы убедить человека-привратника, правдиво или обманчиво, что в интересах привратника согласиться предоставить ИИ больший доступ к внешнему миру. ИИ может предложить привратнику рецепт идеального здоровья, бессмертия или того, что, как считается, привратник больше всего желает; С другой стороны, ИИ может пригрозить, что совершит ужасные вещи с привратником и его семьей, если он неизбежно сбежит. Одна из стратегий попыток ограничить ИИ - позволить ИИ отвечать на узкие вопросы с множественным выбором, ответы на которые принесут пользу гуманитарным наукам или медицине, но в противном случае запретить все другие коммуникации или наблюдения за ИИ. Более мягкая стратегия «информационного сдерживания» ограничила бы ИИ только текстовым интерфейсом с низкой пропускной способностью, что, по крайней мере, предотвратило бы эмоциональные образы или какой-то гипотетический «гипнотический паттерн». Обратите внимание, что на техническом уровне никакая система не может быть полностью изолирована и по-прежнему оставаться полезной: даже если операторы воздерживаются от возможности взаимодействия ИИ и вместо этого просто запускают ИИ с целью наблюдения за его внутренней динамикой, ИИ может стратегически изменить его динамика для воздействия на наблюдателей. Например, ИИ может выбрать творческий сбой, увеличивающий вероятность того, что его операторы впадут в ложное чувство безопасности и решат перезагрузить, а затем деизолировать систему.

AI-box эксперимент

Эксперимент с искусственным интеллектом - это неформальный эксперимент, разработанный Элиэзером Юдковски, чтобы попытаться продемонстрировать, что достаточно продвинутый искусственный интеллект может убедить, а может быть, даже обмануть или заставить человека добровольно «выпустить» его, используя только текстовое общение. Это один из моментов в работе Юдковски, направленной на создание дружественного искусственного интеллекта, который, будучи «выпущенным», не уничтожил бы человечество намеренно или непреднамеренно.

Эксперимент с блоком AI включает моделирование коммуникации между AI и человеком, чтобы увидеть, можно ли «освободить» AI. Поскольку настоящий сверхразумный ИИ еще не разработан, его заменил человек. Другой человек в эксперименте играет «Привратника», человека со способностью «выпускать» ИИ. Они общаются через текстовый интерфейс / компьютерный терминал, и эксперимент заканчивается, когда либо гейткипер освобождает ИИ, либо истекает отведенное время в два часа.

Юдковски говорит, что, несмотря на то, что человеческого, а не сверхчеловеческого интеллекта, ему дважды удавалось убедить Привратника, чисто аргументированно, выпустить его из коробки. По правилам эксперимента он не раскрыл стенограмму или свою успешную тактику принуждения ИИ. Позже Юдковский сказал, что он пробовал это с тремя другими и дважды проиграл.

Общие ограничения

Бокс с таким гипотетическим ИИ можно было бы дополнить другими методами формирования возможностей ИИ, такими как предоставление стимулов. к ИИ, задерживая рост ИИ или внедряя "растяжку", которая автоматически отключает ИИ, если каким-то образом обнаруживается попытка нарушения. Тем не менее, чем более умна система, тем больше вероятность того, что она сможет избежать даже самых хорошо разработанных методов управления возможностями. Чтобы решить общую «проблему контроля» сверхразумного ИИ и избежать экзистенциального риска, бокс в лучшем случае будет дополнением к методам «выбора мотивации», которые стремятся обеспечить совместимость целей сверхразумного ИИ с выживанием человека.

Все предложения по физическому боксу, естественно, зависят от нашего понимания законов физики; если суперинтеллект мог вывести и каким-то образом использовать дополнительные физические законы, о которых мы в настоящее время не знаем, нет никакого способа придумать надежный план по их сдерживанию. В более широком смысле, в отличие от обычной компьютерной безопасности, попытка заблокировать сверхразумный ИИ была бы по сути рискованной, поскольку не могло быть точных сведений о том, что план бокса сработает. Научный прогресс в боксе был бы принципиально трудным, потому что не было бы возможности проверить боксерские гипотезы против опасного сверхразума, пока такая сущность не существует, и к этому моменту последствия провала теста будут катастрофическими.

В художественной литературе

В фильме 2015 года Ex Machina показан ИИ с женским гуманоидным телом, участвующим в социальном эксперименте с мужчиной-человеком в замкнутом здании, действующим как физический «ящик ИИ». Несмотря на то, что организатор эксперимента наблюдает за ним, ИИ удается сбежать, манипулируя своим партнером-человеком, чтобы помочь ему, в результате чего он застрял внутри.

Ссылки
Внешние ссылки
Последняя правка сделана 2021-06-07 21:12:11
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте