В численном анализе метод квази-Монте-Карло представляет собой метод численного интегрирования и решения некоторых других задач с использованием последовательностей с низким расхождением (также называемых квазислучайными последовательностями или субслучайными последовательностями) для достижения уменьшения дисперсии . В этом отличие от обычного метода Монте-Карло или интегрирования Монте-Карло , которые основаны на последовательностях псевдослучайных чисел.
Аналогично формулируются методы Монте-Карло и квази-Монте-Карло. Задача состоит в том, чтобы аппроксимировать интеграл функции f как среднее значение функции, вычисленной в наборе точек x 1 , ..., x N :
Поскольку мы интегрируем по s -мерному единичному кубу, каждый x i является вектором из s элементов. Разница между квази-Монте-Карло и Монте-Карло заключается в способе выбора x i . Квази-Монте-Карло использует последовательность с низким расхождением, такую как последовательность Холтона , последовательность Соболя или последовательность Форе, тогда как Монте-Карло использует псевдослучайную последовательность. Преимущество использования последовательностей с низким расхождением заключается в более высокой скорости сходимости. Квази-Монте-Карло имеет скорость сходимости, близкую к O(1/ N ), тогда как скорость метода Монте-Карло равна O( N -0,5 ). [1]
Метод квази-Монте-Карло недавно стал популярным в области математических финансов или вычислительных финансов . [1] В этих областях часто встречаются многомерные числовые интегралы, где интеграл должен оцениваться в пределах порога ε. Следовательно, в этих ситуациях полезны метод Монте-Карло и метод квази-Монте-Карло.
Погрешность аппроксимации метода квази-Монте-Карло ограничена членом, пропорциональным невязке множества x 1 , ..., x N . В частности, неравенство Коксмы – Главки утверждает, что ошибка
ограничен
где V ( f ) — вариация Харди–Краузе функции f ( подробные определения см . в Morokoff and Caflisch (1995) [2] ). D N представляет собой так называемую звездную невязку множества ( x 1 ,..., x N ) и определяется как
где Q — прямоугольное тело в [0,1] с со сторонами, параллельными осям координат. [2] Неравенство можно использовать, чтобы показать, что ошибка аппроксимации методом квази-Монте-Карло равна , тогда как метод Монте-Карло имеет вероятностную ошибку . Таким образом, при достаточно большом квази-Монте-Карло всегда будет превосходить случайное Монте-Карло. Однако она растет экспоненциально быстро с увеличением размера, а это означает, что плохо выбранная последовательность может быть намного хуже, чем Монте-Карло в больших измерениях. На практике почти всегда можно выбрать подходящую последовательность с низким расхождением или применить подходящее преобразование к подынтегральной функции, чтобы гарантировать, что квази-Монте-Карло работает, по крайней мере, так же хорошо, как Монте-Карло (а часто и намного лучше). [1]
Известно , что для одномерного интегрирования квадратурные методы, такие как правило трапеций , правило Симпсона или формулы Ньютона-Котеса, эффективны, если функция гладкая. Эти подходы также можно использовать для многомерного интегрирования путем повторения одномерных интегралов по нескольким измерениям. Однако количество оценок функции растет экспоненциально по мере увеличения s , количества измерений. Следовательно, для многомерной интеграции следует использовать метод, который сможет преодолеть это проклятие размерности . Стандартный метод Монте-Карло часто используется, когда квадратурные методы сложны или дороги в реализации. [2] Методы Монте-Карло и квази-Монте-Карло точны и относительно быстры, когда размерность высока, до 300 или выше. [3]
Морокофф и Кафлиш [2] исследовали эффективность методов интегрирования Монте-Карло и квази-Монте-Карло. В статье сравниваются последовательности Холтона, Соболя и Фора для квази-Монте-Карло со стандартным методом Монте-Карло с использованием псевдослучайных последовательностей. Они обнаружили, что последовательность Холтона лучше всего работает для размерностей примерно до 6; последовательность Соболя лучше всего работает для более высоких измерений; а последовательность Фора, хотя и уступает двум другим, по-прежнему работает лучше, чем псевдослучайная последовательность.
Однако Морокофф и Кафлиш [2] привели примеры, когда преимущество квази-Монте-Карло меньше, чем ожидалось теоретически. Тем не менее, в примерах, изученных Мороковым и Кафлишом, метод квази-Монте-Карло дал более точный результат, чем метод Монте-Карло с тем же количеством точек. Морокофф и Кафлиш отмечают, что преимущество метода квази-Монте-Карло больше, если подынтегральная функция гладкая, а число размерностей s интеграла мало.
Лемье упомянул недостатки квази-Монте-Карло: [4]
Чтобы преодолеть некоторые из этих трудностей, мы можем использовать рандомизированный метод квази-Монте-Карло.
Поскольку последовательности с низким расхождением не случайны, а детерминированы, метод квази-Монте-Карло можно рассматривать как детерминированный алгоритм или дерандомизированный алгоритм. В этом случае у нас есть только граница (например, ε ≤ V ( f ) D N ) для ошибки, и ошибку трудно оценить. Чтобы восстановить способность анализировать и оценивать дисперсию, мы можем рандомизировать метод ( общую идею см. в разделе «Рандомизация» ). Полученный метод называется рандомизированным методом квази-Монте-Карло, и его также можно рассматривать как метод уменьшения дисперсии для стандартного метода Монте-Карло. [5] Среди нескольких методов простейшей процедурой преобразования является случайное смещение. Пусть { x 1 ,..., x N } будет набором точек из последовательности с низким расхождением. Мы выбираем s -мерный случайный вектор U и смешиваем его с { x 1 , ..., x N }. Подробно, для каждого x j создайте
и используйте последовательность вместо . Если у нас есть R репликаций для Монте-Карло, выберите s-мерный случайный вектор U для каждой репликации. Рандомизация позволяет дать оценку дисперсии, используя при этом квазислучайные последовательности. По сравнению с чистым квази-Монте-Карло количество выборок квазислучайной последовательности будет делиться на R для эквивалентных вычислительных затрат, что снижает теоретическую скорость сходимости. По сравнению со стандартным Монте-Карло, дисперсия и скорость вычислений немного лучше по экспериментальным результатам в Таффине (2008) [6]