Динамическая балансировка сложности игры

редактировать

Динамическая балансировка сложности игры (DGDB), также известная как динамическая регулировка сложности (DDA) или динамическая балансировка игры (DGB), это процесс автоматического изменения параметров, сценариев и поведения в видеоигре в режиме реального времени в зависимости от способностей игрока по порядку чтобы игрок не заскучал (если игра слишком проста) или не расстроился (если игра слишком сложна). Однако, если позволить ИИ-игрокам нарушать правила, которыми обязаны игроки, ИИ может обмануть - например, ИИ-игрокам может быть предоставлена ​​неограниченная скорость в гоночных играх, чтобы они оставались рядом с людьми. игрок. Цель динамической балансировки сложности - заинтересовать пользователя от начала до конца, обеспечивая хороший уровень сложности.

Традиционно сложность игры неуклонно увеличивается по ходу игры (либо плавно, линейно, либо ступенями, представленными уровнями). Параметры этого повышения (скорость, частота, начальные уровни) можно изменять только в начале опыта, выбрав уровень сложности. Тем не менее, это может вызвать разочарование как у опытных, так и у неопытных игроков, поскольку они пытаются следовать заранее выбранным кривым обучения или сложности, что создает множество проблем для разработчиков игр; в результате такой способ игры не получил широкого распространения.

Содержание
  • 1 Динамические игровые элементы
  • 2 Подходы
  • 3 Предостережения
  • 4 Использование в последних видеоиграх
  • 5 См. Также
  • 6 Ссылки
  • 7 Дополнительная литература
  • 8 Внешние ссылки
Динамические элементы игры

Некоторые элементы игры, которые могут быть изменены с помощью динамической балансировки сложности, включают:

  • Скорость врагов
  • Здоровье врагов
  • Частота врагов
  • Частота усилений
  • Сила игрока
  • Сила врагов
  • Продолжительность игрового опыта
Подходит

[A Игроки работают над игрой, их результаты должны постоянно улучшаться. Новички должны иметь возможность добиться некоторого прогресса, люди среднего уровня должны получать промежуточные баллы, а опытные игроки должны получать высокие баллы... В идеале прогресс происходит автоматически; игроки начинают с начального уровня, и расширенные функции вводятся по мере того, как компьютер распознает умелую игру.

Крис Кроуфорд, 1982

В литературе можно найти разные подходы к решению проблемы динамического балансирования сложности игры. Во всех случаях необходимо явно или неявно измерить трудности, с которыми пользователь сталкивается в данный момент. Эта мера может быть выполнена с помощью эвристической функции , которую некоторые авторы называют «функцией вызова». Эта функция преобразует данное игровое состояние в значение, которое указывает, насколько легкой или трудной игра кажется пользователю в определенный момент. Примеры используемых эвристик:

  • Количество успешных выстрелов или попаданий
  • Количество выигранных и проигранных фигур
  • Жизненные очки
  • Эволюция
  • Время выполнить какое-то задание

... или любой показатель, используемый для расчета игрового счета. Крис Кроуфорд сказал: «Если бы я построил график зависимости очков типичного игрока от времени, проведенного в игре, на этом графике должна была бы отображаться кривая, плавно и неуклонно поднимающаяся вверх. Я описываю такую ​​игру как имеющий положительную монотонную кривую ». По его словам, игры без такой кривой кажутся «либо слишком сложными, либо слишком легкими».

Подход Хунике и Чепмена контролирует настройки игровой среды, чтобы сделать задачи проще или сложнее. Например, если игра слишком сложна, игрок получает больше оружия, быстрее восстанавливает очки жизни или сталкивается с меньшим количеством противников. Хотя этот подход может быть эффективным, его применение может привести к невероятным ситуациям. Прямой подход состоит в том, чтобы объединить такие «манипуляции с параметрами» с некоторыми механизмами для изменения поведения неигровых персонажей (персонажей, управляемых компьютером и обычно моделируемых как интеллектуальных агентов). Однако эту настройку следует производить умеренно, чтобы избежать эффекта «резинки». Один из примеров этого эффекта в гоночной игре: автомобили ИИ-водителя становятся значительно быстрее, когда они находятся позади автомобиля игрока, и значительно медленнее, когда они идут впереди, как если бы два автомобиля были соединены большой резиновой лентой .

A Традиционная реализация интеллекта такого агента заключается в использовании правил поведения, определенных во время разработки игры. Типичное правило в файтинге гласит: «бей противника, если он доступен, в противном случае преследуй его». Расширение такого подхода с целью включения моделирования оппонента может быть выполнено с помощью динамического сценария Спронка и др., Который присваивает каждому правилу вероятность быть выбранным. Вес правил может динамически обновляться на протяжении всей игры в соответствии с навыками оппонента, что приводит к адаптации к конкретному пользователю. С помощью простого механизма можно выбрать правила, которые генерируют тактику, которая не будет ни слишком сильной, ни слишком слабой для текущего игрока.

Андраде и др. разделите проблему DGB на два аспекта: компетентность (учиться как можно лучше) и производительность (действовать так же хорошо, как необходимо). Эта дихотомия между компетенцией и эффективностью хорошо известна и изучается в лингвистике, как было предложено Ноамом Хомским. Их подход сталкивается с обоими измерениями с обучением с подкреплением (RL). Автономное обучение используется для запуска процесса обучения. Это можно сделать, позволив агенту играть против себя (самообучение), других заранее запрограммированных агентов или игроков-людей. Затем онлайн-обучение используется для постоянной адаптации этого изначально встроенного интеллекта к каждому конкретному человеческому противнику, чтобы найти наиболее подходящую стратегию для игры против него или нее. Что касается производительности, их идея состоит в том, чтобы найти адекватную политику для выбора действий, обеспечивающих хороший игровой баланс, то есть действий, которые удерживают и агента, и игрока-человека примерно на одном уровне производительности. В зависимости от сложности, с которой сталкивается игрок, агент выбирает действия с высокой или низкой ожидаемой эффективностью. Для данной ситуации, если уровень игры слишком сложен, агент не выбирает оптимальное действие (предусмотренное структурой RL), но постепенно выбирает все менее и менее неоптимальные действия, пока его производительность не станет такой же хорошей, как у игрока. Точно так же, если уровень игры становится слишком простым, он будет выбирать действия с более высокими значениями, возможно, до тех пор, пока не достигнет оптимальной производительности.

Демаси и Круз создали интеллектуальных агентов, использующих генетические алгоритмы методы, чтобы поддерживать агентов, которые лучше всего подходят для уровня пользователя. Коэволюция онлайн используется для ускорения процесса обучения. Коэволюция в Интернете использует предопределенные модели (агентов с хорошими генетическими характеристиками) в качестве родителей в генетических операциях, так что эволюция определяется ими. Эти модели строятся путем автономного обучения или вручную, когда генетическое кодирование агента достаточно просто.

Другая работа в области DGB основана на гипотезе о том, что взаимодействие игрока и оппонента - а не аудиовизуальные особенности, контекст или жанр игры - является тем свойством, которое вносит основной вклад в качество особенности развлечения в компьютерной игре. На основе этого фундаментального предположения была введена метрика для измерения развлекательной ценности игр «хищник / жертва» в реальном времени, которая была признана эффективной и надежной путем проверки на основе человеческого суждения.

Дальнейшие исследования Яннакакиса и Халлама показали, что искусственные нейронные сети (ANN) и нечеткие нейронные сети могут дать более точную оценку удовлетворенности игроков, чем разработанные человеком один, учитывая соответствующие оценки сложности и любопытства (неотъемлемые качественные факторы вовлеченности в игровой процесс по Малоуну) игры и данные о предпочтениях игроков-людей. Подход к построению пользовательских моделей игрока в игре, которые могут предсказать ответы на вопрос, какие варианты игры более или менее увлекательны, определяется как моделирование развлечений. Модель обычно строится с использованием методов машинного обучения, применяемых к параметрам игры, полученным на основе взаимодействия игрока с игрой, и / или статистических характеристик игрока, записанных во время игры. Этот базовый подход применим к множеству игр, как компьютерных, так и физических.

Предостережения

Создание честной, но не предсказуемой игры, затруднено. Эндрю Роллингс и Эрнест Адамс приводят пример игры, в которой изменялась сложность каждого уровня в зависимости от того, как игрок выступал на нескольких предыдущих уровнях. Игроки заметили это и разработали стратегию преодоления сложных уровней, намеренно неудачно играя на уровнях, предшествующих сложному. Авторы подчеркивают важность сокрытия существования адаптации сложности, чтобы игроки не знали об этом.

Использование в последних видеоиграх

Компьютерный противник Archon со временем медленно адаптируется, чтобы помочь игроки побеждают его. Даниэль Бунтен разработала и MULE, и Global Conquest, чтобы динамически балансировать игровой процесс между игроками. Случайные события корректируются таким образом, чтобы игрок, занявший первое место, никогда не был удачливым, а игрок, занявший последнее место, никогда не был неудачником.

Первая игра Crash Bandicoot и ее сиквелы используют "динамическую" Система «Регулировка сложности», замедляющая препятствия, дающая дополнительные очки жизни и добавляющая очки продолжения в соответствии с количеством смертей игрока. По словам ведущего дизайнера игры Джейсона Рубина, цель заключалась в том, чтобы «помочь более слабым игрокам, не меняя игру на лучших».

Видеоигра Flow была известна популяризацией применения мысленного погружения (также называемого поток ) к видеоиграм с его Flash-версией 2006 года. Дизайн видеоигры был основан на магистерской диссертации одного из ее авторов, а затем был адаптирован для PlayStation 3.

SiN Episodes, выпущенные в 2006 году, содержали «Систему личных испытаний», в которой использовалось количество и сила врагов. будет варьироваться в зависимости от производительности игрока, чтобы обеспечить уровень сложности и скорость прохождения игры. Разработчик, Ritual Entertainment, утверждал, что игроки с совершенно разными уровнями способностей могут закончить игру за небольшой промежуток времени друг от друга.

В 2005 году Resident Evil 4 использовал систему под названием «Шкала сложности», неизвестная большинству игроков, поскольку единственное упоминание о ней было в Официальном руководстве по стратегии. Эта система оценивает производительность игрока по числовой шкале от 1 до 10 и регулирует как поведение / используемые атаки противника, так и урон / сопротивление врага в зависимости от производительности игрока (например, смертей, критических атак и т. Д.). Выбранные уровни сложности фиксируют игроков на определенном количестве; например, на нормальной сложности каждый начинает с 4-го класса, может перейти к 2-му классу, если дела идут плохо, или до 7-го класса, если дела идут хорошо. Уровни сложности могут пересекаться.

God Hand, видеоигра 2006 года, разработанная Clover Studio, режиссер Resident Evil 4 Синдзи Миками и опубликованная Capcom для PlayStation 2, имеет индикатор во время игры, который регулирует интеллект и силу противника. Этот счетчик увеличивается, когда игрок успешно уклоняется и атакует противников, и уменьшается, когда игрок получает удар. Счетчик разделен на четыре уровня, самый сложный из которых называется «Уровень DIE». В игре также есть три сложности: легкая - позволяет счетчику подняться только до уровня 2, а самая сложная - блокирует счетчик до уровня DIE. Эта система также предлагает большие награды за победу над врагами на более высоких уровнях.

В видеоигре 2008 года Left 4 Dead используется новая технология искусственного интеллекта, получившая название «AI Director». AI Director используется для процедурного создания нового опыта для игроков при каждом прохождении игры. Он отслеживает производительность отдельных игроков и то, насколько хорошо они работают вместе в группе, чтобы задавать темп игры, определяя количество зомби, которые нападают на игрока, и местоположение зараженных боссов встреч на основе собранной информации. Директор также определяет, насколько быстро игроки продвигаются по уровню к каждой цели; если он обнаруживает, что игроки оставались на одном месте слишком долго или не достигают достаточного прогресса, он вызовет орду обычных зараженных, чтобы заставить всех присутствующих игроков и ИИ-персонажей покинуть свое текущее местоположение и бороться с новой угрозой. Помимо управления темпами, Режиссер также управляет некоторыми видео и аудио элементами игры, чтобы задать настроение для встречи с боссом или привлечь внимание игроков к определенной области. Valve называет способ работы Директора «процедурным повествованием », потому что вместо того, чтобы иметь уровень сложности, который просто увеличивается до постоянного уровня, A.I. анализирует, как игроки преуспевали в игре на данный момент, и пытается добавить последующие события, которые дадут им смысл повествования.

Madden NFL 09 представляет «Madden IQ», который начинается с дополнительного тестирования игроков знание спорта и способности в различных ситуациях. Затем счет используется для управления сложностью игры.

В игре «три в ряд» Fishdom ограничение по времени регулируется в зависимости от того, насколько хорошо играет игрок. Лимит времени увеличивается, если игрок проваливает уровень, что позволяет любому игроку пройти уровень после нескольких попыток.

В видеоигре 1999 года Homeworld количество кораблей, с которых ИИ начинает каждую миссию, будет установлено в зависимости от того, насколько мощным, по мнению игры, является флот игрока. У успешных игроков флот больше, потому что они несут меньше потерь. Таким образом, игрок, успешно выполнивший несколько миссий, по ходу игры будет испытывать все больше и больше проблем.

В Fallout: New Vegas и Fallout 3 по мере повышения уровня игрока появляются более сложные варианты врагов, враги с более высокой статистикой и лучшим оружием или новые враги. заменит старые, чтобы сохранить постоянную сложность, которую можно повысить с помощью ползунка, с бонусами к опыту и наоборот в Fallout 3. Это также можно сделать в Нью-Вегасе, но нет бонуса к увеличению или уменьшению сложности.

Серия Mario Kart включает предметы во время гонок, которые помогают отдельным гонщикам опередить своих противников. Эти предметы распределяются в зависимости от положения водителя, что является примером динамической балансировки сложности игры. Например, водитель в нижней части поля, скорее всего, получит предмет, который резко увеличит его скорость или резко снизит скорость его противников, тогда как водитель, находящийся на первом или втором месте, может рассчитывать получить такие предметы редко ( и, вероятно, получат более слабые предметы в игре). Компьютерные гонщики в игре также адаптируются к скорости игрока - замедляются, когда ведущий игрок-гонщик слишком сильно отстает от лучшего компьютерного гонщика, и наоборот - когда конкурирующие компьютерные гонщики догоняют игрока первыми.

Ранний пример балансировки сложности можно найти в Zanac, разработанном в 1986 году компанией Compile. В игре использовался уникальный адаптивный искусственный интеллект, в котором игра автоматически настраивала уровень сложности в соответствии с уровнем навыков игрока, скорострельностью и текущим оборонительным статусом / возможностями корабля. Раньше, чем это, можно найти в монетной игре Midway 1975 Gun Fight. Эта перестрелка лицом к лицу поможет любому игроку, в которого только что застрелили, поместив новый дополнительный объект, например, растение кактуса, на его половину игрового поля, чтобы им было легче спрятаться.

См. Также
Ссылки
Дополнительная литература
  • Hunicke, Robin (2005). «Кейс для динамической регулировки сложности в играх». Материалы Международной конференции 2005 ACM SIGCHI по достижениям в компьютерных развлекательных технологиях. Нью-Йорк: ACM. С. 429–433. doi : 10.1145 / 1178477.1178573.
  • Бирн, Эдвард (2004). Дизайн игрового уровня. Чарльз Ривер Медиа. п. 74. ISBN 1-58450-369-6.
  • Чен, Дженова (2006). «Поток в играх».
Внешние ссылки
Последняя правка сделана 2021-05-18 07:27:10
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте