Антикомпьютерная тактика — это методы, используемые людьми, чтобы попытаться победить компьютерных противников в различных играх, чаще всего в настольных играх, таких как шахматы и Arimaa . Они больше всего связаны с соревнованиями против компьютерных ИИ, которые играют на пределе своих возможностей, чтобы победить, а не с ИИ, просто запрограммированными на то, чтобы быть интересным вызовом, которому программист может придать преднамеренные слабости и причуды (как во многих ИИ видеоигр ). Такая тактика больше всего связана с эпохой, когда ИИ искали игровое дерево с функцией оценки в поисках перспективных ходов, часто с альфа-бета-отсечением или другими минимаксными алгоритмами, используемыми для сужения поиска. Против таких алгоритмов распространенной тактикой является консервативная игра, нацеленная на долгосрочное преимущество. Теория заключается в том, что это преимущество будет проявляться достаточно медленно, что компьютер не сможет заметить его в своем поиске, и компьютер не будет правильно обыгрывать угрозу. Это может привести, например, к тонкому преимуществу, которое в конечном итоге превратится в выигрышный шахматный эндшпиль с проходной пешкой . (И наоборот, попытка заманить ИИ в краткосрочную « ловушку », приглашая его сделать кажущийся разумным для людей, но на самом деле катастрофический ход, по сути, никогда не сработает против компьютера в играх с полной информацией.)
Эта область больше всего ассоциируется с 1990-ми и началом 2000-х годов, когда компьютеры были очень сильны в таких играх, как шахматы, но их можно было победить. Даже тогда эффективность такой тактики была сомнительной, и несколько тактик, таких как выполнение необычных или неоптимальных ходов для быстрого вывода компьютера из его дебютной книги, оказались неэффективными в турнирах человек-компьютер. Рост машинного обучения также подорвал применимость антикомпьютерных тактик, поскольку алгоритмы машинного обучения, как правило, играют в долгую игру так же хорошо, если не лучше, чем игроки-люди.
Одним из аспектов проектирования классического ИИ для игр с полной информацией является эффект горизонта . Компьютерные ИИ изучают игровое дерево возможных ходов и контрходов, но если в дереве нет принудительной победы, им в конечном итоге необходимо прекратить исследование новых возможностей. Когда это происходит, вызывается функция оценки состояния доски, которая часто использует грубую эвристику для определения того, какая сторона на ней в фаворе. В шахматах это могут быть такие вещи, как материальное преимущество (дополнительные фигуры), контроль над центром, безопасность короля и структура пешек. Использование эффекта горизонта может осуществляться игроками-людьми с помощью стратегии, плоды которой очевидны только за пределами ходов, рассмотренных ИИ. Например, если ИИ изучает 10 ходов вперед, и стратегия «окупится» через 12–20 ходов (6–10 ходов), ИИ не будет играть вокруг надвигающейся угрозы, которую он не может «видеть», подобно тому, как человек не может видеть «за горизонтом», где корабль может быть скрыт естественной кривизной земли. Аналогично, чтобы сохранить горизонт коротким, игроки-люди могут захотеть сохранить максимально сложное состояние доски. Упрощение доски путем обмена фигурами позволяет ИИ заглянуть «дальше» в будущее, поскольку нужно рассмотреть меньше вариантов, и, таким образом, его избегают при попытке использовать эффект горизонта.
Тактика, которая лучше всего работает с ИИ, которые очень «детерминированы» и известны тем, что играют одним определенным образом в ответ на угрозу, заключается в том, чтобы навязать ситуацию, в которой человек точно знает, как отреагирует ИИ. Если человек выбирает ситуацию, с которой, по его мнению, ИИ справляется плохо, это может привести к надежному заманиванию ИИ в такие ситуации. Даже если ИИ может хорошо справиться с этим конкретным стилем игры, если человек уверен, что ИИ всегда будет выбирать его, это упрощает подготовку для игрока-человека — он может просто очень внимательно изучить эту ситуацию, зная, что ИИ всегда примет приглашение играть на такой доске.
Игры ИИ, основанные на поиске по дереву Монте-Карло, имеют противоположные сильные и слабые стороны по сравнению с альфа-бета ИИ. Хотя они, как правило, лучше справляются с долгосрочной стратегией, у них есть проблемы с ловушками. [1] Как только ИИ Монте-Карло попадают в ловушку, они могут продолжать играть плохо в течение значительного периода времени и не могут восстановиться. [2]
В то время как терпеливое накопление преимущества может быть полезной тактикой против альфа-бета ИИ, которые играют тактически, ИИ на основе MCTS, такие как AlphaGo, сами могут играть в этой терпеливой стратегической манере. [2] Таким образом, преднамеренная тактическая игра, которая является плохим подходом против альфа-бета, становится жизнеспособной антикомпьютерной тактикой против MCTS.
Игровые ИИ, основанные на нейронных сетях, могут быть восприимчивы к состязательным возмущениям, когда выполнение бессмысленного хода изменяет оценку позиции ИИ и заставляет его проиграть. Лан и др. разработали алгоритм для поиска изменений состояний доски, которые заставят KataGo делать худшие ходы. [3] Однако, как и примеры состязательных атак в распознавании изображений, эти атаки трудно разработать без помощи компьютера.
В матче Deep Blue против Гарри Каспарова 1997 года Каспаров применил антикомпьютерный тактический ход в начале игры, чтобы вывести Deep Blue из его дебютной книги . [4] Каспаров выбрал необычный дебют Мизеса и подумал, что компьютер будет плохо играть в дебюте , если ему придется играть самому (то есть полагаться на свои собственные навыки, а не использовать свою дебютную книгу). [5] Каспаров применял похожие антикомпьютерные дебюты в других играх матча, но тактика дала обратный эффект. [6] Каспаров написал об этих двух матчах после второй игры, где он выбрал Испанскую партию Лопеса : «Мы решили, что использовать ту же самую пассивную антикомпьютерную стратегию черными будет слишком опасно. Белыми я мог гораздо лучше контролировать темп игры и ждать своих шансов. Черными было бы безопаснее играть известный дебют, даже если он был в книге Deep Blue, особенно если это был закрытый дебют, где ему было бы трудно найти план. Недостатком этой стратегии, как и во всех играх, было то, что это был не мой стиль. Пока я играл в антикомпьютерные шахматы, я также играл в антикаспаровские шахматы.”
«Мозги в Бахрейне» — шахматный матч из восьми партий между гроссмейстером , а затем чемпионом мира Владимиром Крамником и компьютерной программой Deep Fritz 7 , состоявшийся в октябре 2002 года. Матч закончился вничью 4–4, с двумя победами каждого участника и четырьмя ничьими , каждая из которых стоила по пол-очка. [7]
Arimaa — это шахматная производная, специально разработанная для того, чтобы быть сложной для альфа-бета-обрезки ИИ, вдохновленная поражением Каспарова от Deep Blue в 1997 году. Она позволяет игроку совершать 4 действия за «ход», что значительно увеличивает размер пространства поиска и может разумно закончить с почти полной доской и несколькими захваченными фигурами, избегая «решенных» позиций в стиле эндшпиля tablebase из-за нехватки юнитов. Хотя игроки-люди в Arimaa держались дольше, чем шахматы, они тоже уступили превосходящим компьютерным ИИ в 2015 году. [8]
В тактических играх, таких как шахматы, в пространстве поиска существует большое количество ловушек. Они требуют точной игры, чтобы избежать немедленного проигрыша, а выборочная выборка MCTS на основе средних результатов моделирования может легко упустить или недооценить важный ход.