Динамическая балансировка сложности игры ( DGDB ), также известная как динамическая регулировка сложности ( DDA ), адаптивная сложность или динамическая балансировка игры ( DGB ), представляет собой процесс автоматического изменения параметров, сценариев и поведения в видеоигре в реальном времени на основе способностей игрока, чтобы не заставлять игрока скучать (если игра слишком легкая) или разочаровываться (если она слишком сложная). Цель динамической балансировки сложности — поддерживать интерес пользователя от начала до конца, обеспечивая хороший уровень сложности.
Некоторые элементы игры, которые можно изменить с помощью динамического баланса сложности, включают:
[A]s, поскольку игроки работают с игрой, их результаты должны отражать постоянное улучшение. Новички должны иметь возможность добиться некоторого прогресса, игроки среднего уровня должны получать промежуточные результаты, а опытные игроки должны получать высокие результаты... В идеале прогресс происходит автоматически; игроки начинают с уровня новичка, а расширенные функции вводятся по мере того, как компьютер распознает профессиональную игру.
— Крис Кроуфорд , 1982 [1]
В литературе встречаются различные подходы к решению динамической балансировки сложности игры. Во всех случаях необходимо измерять, явно или неявно, сложность, с которой сталкивается пользователь в данный момент. Эта мера может быть выполнена эвристической функцией, которую некоторые авторы называют «функцией вызова». Эта функция отображает заданное состояние игры в значение, которое указывает, насколько легкой или сложной игра кажется пользователю в определенный момент. Примеры используемых эвристик:
... или любой другой показатель, используемый для расчета счета игры . Крис Кроуфорд сказал: «Если бы я построил график счета типичного игрока в зависимости от времени, проведенного в игре, этот график должен был бы показывать кривую, плавно и неуклонно поднимающуюся вверх. Я описываю такую игру как имеющую положительную монотонную кривую». Игры без такой кривой кажутся «либо слишком сложными, либо слишком легкими», сказал он. [1]
Подход Ханике и Чепмена [2] контролирует настройки игровой среды, чтобы сделать испытания проще или сложнее. Например, если игра слишком сложная, игрок получает больше оружия, быстрее восстанавливает очки жизни или сталкивается с меньшим количеством противников. Хотя этот подход может быть эффективным, его применение может привести к неправдоподобным ситуациям. Прямолинейный подход заключается в объединении такой «манипуляций параметрами» с некоторыми механизмами для изменения поведения неигровых персонажей (персонажей, управляемых компьютером и обычно моделируемых как интеллектуальные агенты). Однако эта корректировка должна быть сделана с умеренностью, чтобы избежать эффекта «резиновой ленты». Одним из примеров этого эффекта в гоночной игре может быть то, что транспортные средства водителя ИИ становятся значительно быстрее, когда они находятся позади транспортного средства игрока, и значительно медленнее, когда они находятся впереди, как если бы два транспортных средства были соединены большой резиновой лентой .
Традиционная реализация интеллекта такого агента заключается в использовании правил поведения, определенных во время разработки игры . Типичное правило в файтинге гласит: «бей противника, если он достижим, в противном случае преследуй его». Расширение такого подхода для включения моделирования противника можно осуществить с помощью динамического скриптинга Спронка и др. [ 3] [4] , который назначает каждому правилу вероятность выбора. Веса правил могут динамически обновляться на протяжении всей игры в соответствии с навыками противника, что приводит к адаптации к конкретному пользователю. С помощью простого механизма можно выбирать правила, которые генерируют тактику, которая не является ни слишком сильной, ни слишком слабой для текущего игрока.
Андраде и др. [5] делят проблему DGB на два измерения: компетентность (учиться как можно лучше) и производительность (действовать так же хорошо, как необходимо). Эта дихотомия между компетентностью и производительностью хорошо известна и изучена в лингвистике , как предложено Ноамом Хомским . [6] Их подход сталкивается с обоими измерениями с помощью обучения с подкреплением (RL). Автономное обучение используется для начальной загрузки процесса обучения. Это можно сделать, позволив агенту играть против самого себя (самообучение), других предварительно запрограммированных агентов или игроков-людей. Затем онлайн-обучение используется для постоянной адаптации этого изначально встроенного интеллекта к каждому конкретному противнику-человеку, чтобы найти наиболее подходящую стратегию для игры против него или нее. Что касается производительности, их идея заключается в том, чтобы найти адекватную политику для выбора действий, которые обеспечивают хороший игровой баланс, т. е. действий, которые поддерживают как агента, так и игрока-человека примерно на одном уровне производительности. В зависимости от сложности, с которой сталкивается игрок, агент выбирает действия с высокой или низкой ожидаемой производительностью. Для данной ситуации, если уровень игры слишком сложен, агент не выбирает оптимальное действие (предоставляемое фреймворком RL), а выбирает все менее и менее неоптимальные действия, пока его производительность не станет такой же хорошей, как у игрока. Аналогично, если уровень игры становится слишком легким, он будет выбирать действия, значения которых выше, возможно, пока не достигнет оптимальной производительности.
Демаси и Круз [7] создали интеллектуальных агентов, использующих методы генетических алгоритмов , чтобы поддерживать в живых агентов, которые лучше всего соответствуют уровню пользователя. Онлайн-коэволюция используется для ускорения процесса обучения. Онлайн-коэволюция использует предопределенные модели (агенты с хорошими генетическими характеристиками) в качестве родителей в генетических операциях, так что эволюция предвзята ими. Эти модели создаются путем офлайн-обучения или вручную, когда генетическое кодирование агента достаточно простое.
Другая работа в области DGB основана на гипотезе о том, что взаимодействие игрока и противника, а не аудиовизуальные особенности, контекст или жанр игры, является свойством, которое вносит большую часть качественных характеристик развлечения в компьютерную игру. [8] На основе этого фундаментального предположения была введена метрика для измерения ценности развлечения в реальном времени в играх хищник/жертва, которая была признана эффективной и надежной путем проверки с помощью человеческого суждения.
Дальнейшие исследования Яннакакиса и Халлама [9] показали, что искусственные нейронные сети (ИНС) и нечеткие нейронные сети могут извлечь лучшую оценку удовлетворенности игрока, чем разработанная человеком, учитывая соответствующие оценки сложности и любопытства (внутренние качественные факторы для увлекательного игрового процесса по Мэлоуну) [10] игры и данные о предпочтениях игроков-людей. Подход к построению пользовательских моделей игрока игры, которые могут предсказать ответы на то, какие варианты игры более или менее увлекательны, определяется как моделирование развлечений . Модель обычно строится с использованием методов машинного обучения , применяемых к параметрам игры, полученным из взаимодействия игрока с игрой [11] и/или статистических характеристик физиологических сигналов игрока, записанных во время игры. [12] Этот базовый подход применим к различным играм, как компьютерным [9], так и физическим.
Сложно разработать игру, которая была бы честной, не будучи предсказуемой. [13] Эндрю Роллингс и Эрнест Адамс приводят пример игры, которая меняла сложность каждого уровня в зависимости от того, как игрок справился на нескольких предыдущих уровнях. Игроки заметили это и разработали стратегию преодоления сложных уровней, намеренно плохо играя на уровнях, предшествующих сложному. Авторы подчеркивают важность сокрытия существования адаптации к сложности, чтобы игроки не знали об этом. [14]
Ранний пример балансировки сложности можно найти в Zanac , разработанной в 1986 году компанией Compile . В игре был уникальный адаптивный искусственный интеллект , в котором игра автоматически регулировала уровень сложности в соответствии с уровнем мастерства игрока, скорострельностью и текущим оборонительным статусом/возможностями корабля. Ранее это можно было найти в игре Gun Fight 1975 года от Midway. Эта перестрелка лицом к лицу помогала игроку, в которого только что стреляли, помещая на его половину игрового поля новый дополнительный объект, например, кактус, что облегчало ему возможность спрятаться.
Компьютерный противник Архонта медленно адаптируется со временем, чтобы помочь игрокам победить его. [15] Даниэль Бантен разработала и MULE , и Global Conquest для динамического баланса игрового процесса между игроками. Случайные события подстраиваются так, что игрок на первом месте никогда не бывает удачливым, а игрок на последнем месте никогда не бывает неудачливым. [16]
Первая игра Crash Bandicoot и ее сиквелы используют систему «Dynamic Difficulty Adjustment», замедляющую препятствия, дающую дополнительные очки здоровья и добавляющую очки продолжения в зависимости от количества смертей игрока. По словам ведущего дизайнера игры Джейсона Рубина , цель состояла в том, чтобы «помочь слабым игрокам, не меняя игру для лучших игроков». [17]
Видеоигра Flow была примечательна популяризацией применения ментального погружения (также называемого flow ) в видеоиграх с ее версией Flash 2006 года. Дизайн видеоигры был основан на магистерской диссертации одного из ее авторов и позже был адаптирован для PlayStation 3.
Эпизоды SiN , выпущенные в 2006 году, включали «систему личных испытаний», в которой количество и сила врагов, с которыми сталкивался игрок, варьировались в зависимости от результатов игрока, чтобы обеспечить уровень сложности и темп прохождения игры. Разработчик, Ritual Entertainment , утверждал, что игроки с совершенно разными уровнями способностей могли закончить игру с небольшой разницей во времени. [18]
В 2005 году Resident Evil 4 использовала систему под названием «Шкала сложности», неизвестную большинству игроков, поскольку единственное упоминание о ней было в Official Strategy Guide. Эта система оценивает производительность игрока по числовой шкале от 1 до 10 и корректирует как поведение/атаки врагов, так и урон/сопротивление врагов на основе производительности игрока (например, смертей, критических атак и т. д.). Выбранные уровни сложности фиксируют игроков на определенном числе; например, на Normal уровне сложности игрок начинает с уровня 4, может перейти на уровень 2, если играет плохо, или на уровень 7, если играет хорошо. Уровни сложности могут пересекаться. [19]
God Hand , видеоигра 2006 года, разработанная Clover Studio , под руководствомдиректора Resident Evil 4 Синдзи Миками и изданная Capcom для PlayStation 2 , имеет счетчик во время игрового процесса, который регулирует интеллект и силу противника. Этот счетчик увеличивается, когда игрок успешно уклоняется и атакует противников, и уменьшается, когда игрок получает удар. Счетчик разделен на четыре уровня, причем самый сложный уровень называется «Level DIE». В игре также есть три уровня сложности, при этом легкий уровень сложности позволяет счетчику подняться только до уровня 2, в то время как самый сложный уровень сложности блокирует счетчик на уровне DIE. Эта система также предлагает большие награды за победу над врагами на более высоких уровнях.
Видеоигра Left 4 Dead 2008 года использует технологию искусственного интеллекта, названную «AI Director». [20] AI Director используется для процедурной генерации различного опыта для игроков каждый раз, когда играется. Он отслеживает производительность отдельных игроков и то, насколько хорошо они работают вместе как группа, чтобы задать темп игры, определяя количество зомби, которые атакуют игрока, и местоположение встреч с зараженными боссами на основе собранной информации. Директор также определяет, как быстро игроки продвигаются по уровню к каждой цели; если он обнаруживает, что игроки остаются на одном месте слишком долго или не добиваются достаточного прогресса, он призовет орду обычных зараженных, чтобы заставить всех игроков и присутствующих персонажей ИИ покинуть свое текущее местоположение и сразиться с новой угрозой. Помимо темпа, Директор также управляет некоторыми видео- и аудиоэлементами игры, чтобы задать настроение для встречи с боссом или привлечь внимание игроков к определенной области. [21] Valve называет способ работы Директора « процедурным повествованием », поскольку вместо того, чтобы уровень сложности просто повышался до постоянного уровня, ИИ анализирует, как игроки справлялись с игрой до сих пор, и пытается добавить последующие события, которые дали бы им ощущение повествования. [22]
Madden NFL 09 представляет "Madden IQ", который начинается с необязательного теста на знание игроками вида спорта и их способности в различных ситуациях. Затем счет используется для контроля сложности игры. [23] [24]
В игре «три в ряд» Fishdom ограничение по времени регулируется в зависимости от того, насколько хорошо играет игрок. Ограничение по времени увеличивается, если игрок проваливает уровень, что позволяет любому игроку пройти уровень за несколько попыток.
В видеоигре Homeworld 1999 года количество кораблей, с которыми ИИ начинает каждую миссию, будет устанавливаться в зависимости от того, насколько мощным игра посчитает флот игрока. Успешные игроки имеют более крупные флоты, потому что они несут меньше потерь. Таким образом, игрок, который успешно проходит несколько миссий, начнет сталкиваться со все большими трудностями по мере продвижения игры.
В Fallout: New Vegas и Fallout 3 по мере повышения уровня игрока более сильные враги, враги с более высокими характеристиками и лучшим оружием или новые враги будут заменять старых, чтобы сохранить постоянную сложность, которую можно повысить с помощью ползунка с бонусами опыта и наоборот в Fallout 3. Это также можно сделать в New Vegas , но бонуса за увеличение или уменьшение сложности нет.
В серии Mario Kart есть предметы во время гонок, которые помогают отдельному гонщику опередить своих соперников. Эти предметы распределяются в зависимости от позиции гонщика таким образом, что это пример динамического баланса сложности игры. Например, гонщик, находящийся в нижней части поля, скорее всего, получит предмет, который резко увеличит его скорость или резко снизит скорость его соперников, тогда как гонщик, занимающий первое или второе место, может рассчитывать на получение таких предметов редко (и, вероятно, получит более слабые предметы игры). Компьютерные гонщики игры также адаптируются к скорости игрока — замедляются, когда ведущий гонщик слишком сильно отстает от лучшего компьютерного гонщика, и наоборот — когда компьютерные гонщики-соперники догоняют игрока, идущего первым.
В 2020 году коллективный иск в Окружном суде США по Северному округу Калифорнии обвинил разработчика игр Electronic Arts в использовании его запатентованной технологии Dynamic Difficulty Adjustment в трех франшизах EA Sports — Madden NFL , FIFA и NHL — во всех играх, начиная с версий 2017 года. Истцы утверждают, что EA использует эту технологию, чтобы подтолкнуть игроков к покупке большего количества лутбоксов в форме Player Packs, заявляя, что она фактически заставляет даже игроков с высокими характеристиками играть не так хорошо, как следовало бы.
В иске также отмечается, что EA использует эту технологию, не раскрывая ее игрокам, отмечая, что EA отрицала ее использование в прошлом в нескольких играх, упомянутых в иске. Когда EA попросили прокомментировать обвинения, она назвала претензии «беспочвенными» и что они «искажают наши игры». [25] [26] [27] Истцы добровольно отклонили иск в 2021 году. [28]
{{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ){{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ){{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка )