stringtranslate.com

Метод квази-Монте-Карло

256 точек из источника псевдослучайных чисел и последовательности Соболя (красный=1,..,10, синий=11,..,100, зеленый=101,..,256). Точки из последовательности Соболя распределены более равномерно.

В численном анализе метод квази-Монте-Карло представляет собой метод численного интегрирования и решения некоторых других задач с использованием последовательностей с низким расхождением (также называемых квазислучайными последовательностями или субслучайными последовательностями) для достижения уменьшения дисперсии . В этом отличие от обычного метода Монте-Карло или интегрирования Монте-Карло , которые основаны на последовательностях псевдослучайных чисел.

Аналогично формулируются методы Монте-Карло и квази-Монте-Карло. Задача состоит в том, чтобы аппроксимировать интеграл функции f как среднее значение функции, вычисленной в наборе точек x 1 , ..., x N :

Поскольку мы интегрируем по s -мерному единичному кубу, каждый x i является вектором из s элементов. Разница между квази-Монте-Карло и Монте-Карло заключается в способе выбора x i . Квази-Монте-Карло использует последовательность с низким расхождением, такую ​​как последовательность Холтона , последовательность Соболя или последовательность Форе, тогда как Монте-Карло использует псевдослучайную последовательность. Преимущество использования последовательностей с низким расхождением заключается в более высокой скорости сходимости. Квази-Монте-Карло имеет скорость сходимости, близкую к O(1/ N ), тогда как скорость метода Монте-Карло равна O( N -0,5 ). [1]

Метод квази-Монте-Карло недавно стал популярным в области математических финансов или вычислительных финансов . [1] В этих областях часто встречаются многомерные числовые интегралы, где интеграл должен оцениваться в пределах порога ε. Следовательно, в этих ситуациях полезны метод Монте-Карло и метод квази-Монте-Карло.

Границы погрешности аппроксимации квази-Монте-Карло

Погрешность аппроксимации метода квази-Монте-Карло ограничена членом, пропорциональным невязке множества x 1 , ..., x N . В частности, неравенство Коксмы – Главки утверждает, что ошибка

ограничен

где V ( f ) — вариация Харди–Краузе функции f ( подробные определения см . в Morokoff and Caflisch (1995) [2] ). D N представляет собой так называемую звездную невязку множества ( x 1 ,..., x N ) и определяется как

где Q — прямоугольное тело в [0,1] с со сторонами, параллельными осям координат. [2] Неравенство можно использовать, чтобы показать, что ошибка аппроксимации методом квази-Монте-Карло равна , тогда как метод Монте-Карло имеет вероятностную ошибку . Таким образом, при достаточно большом квази-Монте-Карло всегда будет превосходить случайное Монте-Карло. Однако она растет экспоненциально быстро с увеличением размера, а это означает, что плохо выбранная последовательность может быть намного хуже, чем Монте-Карло в больших измерениях. На практике почти всегда можно выбрать подходящую последовательность с низким расхождением или применить подходящее преобразование к подынтегральной функции, чтобы гарантировать, что квази-Монте-Карло работает, по крайней мере, так же хорошо, как Монте-Карло (а часто и намного лучше). [1]

Монте-Карло и квази-Монте-Карло для многомерной интеграции

Известно , что для одномерного интегрирования квадратурные методы, такие как правило трапеций , правило Симпсона или формулы Ньютона-Котеса, эффективны, если функция гладкая. Эти подходы также можно использовать для многомерного интегрирования путем повторения одномерных интегралов по нескольким измерениям. Однако количество оценок функции растет экспоненциально по мере  увеличения s , количества измерений. Следовательно, для многомерной интеграции следует использовать метод, который сможет преодолеть это проклятие размерности . Стандартный метод Монте-Карло часто используется, когда квадратурные методы сложны или дороги в реализации. [2] Методы Монте-Карло и квази-Монте-Карло точны и относительно быстры, когда размерность высока, до 300 или выше. [3]

Морокофф и Кафлиш [2] исследовали эффективность методов интегрирования Монте-Карло и квази-Монте-Карло. В статье сравниваются последовательности Холтона, Соболя и Фора для квази-Монте-Карло со стандартным методом Монте-Карло с использованием псевдослучайных последовательностей. Они обнаружили, что последовательность Холтона лучше всего работает для размерностей примерно до 6; последовательность Соболя лучше всего работает для более высоких измерений; а последовательность Фора, хотя и уступает двум другим, по-прежнему работает лучше, чем псевдослучайная последовательность.

Однако Морокофф и Кафлиш [2] привели примеры, когда преимущество квази-Монте-Карло меньше, чем ожидалось теоретически. Тем не менее, в примерах, изученных Мороковым и Кафлишом, метод квази-Монте-Карло дал более точный результат, чем метод Монте-Карло с тем же количеством точек. Морокофф и Кафлиш отмечают, что преимущество метода квази-Монте-Карло больше, если подынтегральная функция гладкая, а число размерностей s интеграла мало.

Недостатки квази-Монте-Карло

Лемье упомянул недостатки квази-Монте-Карло: [4]

Чтобы преодолеть некоторые из этих трудностей, мы можем использовать рандомизированный метод квази-Монте-Карло.

Рандомизация квази-Монте-Карло

Поскольку последовательности с низким расхождением не случайны, а детерминированы, метод квази-Монте-Карло можно рассматривать как детерминированный алгоритм или дерандомизированный алгоритм. В этом случае у нас есть только граница (например, εV ( f ) D N ) для ошибки, и ошибку трудно оценить. Чтобы восстановить способность анализировать и оценивать дисперсию, мы можем рандомизировать метод ( общую идею см. в разделе «Рандомизация» ). Полученный метод называется рандомизированным методом квази-Монте-Карло, и его также можно рассматривать как метод уменьшения дисперсии для стандартного метода Монте-Карло. [5] Среди нескольких методов простейшей процедурой преобразования является случайное смещение. Пусть { x 1 ,..., x N } будет набором точек из последовательности с низким расхождением. Мы выбираем s -мерный случайный вектор U и смешиваем его с { x 1 , ..., x N }. Подробно, для каждого x j создайте

и используйте последовательность вместо . Если у нас есть R репликаций для Монте-Карло, выберите s-мерный случайный вектор U для каждой репликации. Рандомизация позволяет дать оценку дисперсии, используя при этом квазислучайные последовательности. По сравнению с чистым квази-Монте-Карло количество выборок квазислучайной последовательности будет делиться на R для эквивалентных вычислительных затрат, что снижает теоретическую скорость сходимости. По сравнению со стандартным Монте-Карло, дисперсия и скорость вычислений немного лучше по экспериментальным результатам в Таффине (2008) [6]

Смотрите также

Рекомендации

  1. ^ abc Сорен Асмуссен и Питер В. Глинн, Стохастическое моделирование: алгоритмы и анализ , Springer, 2007, 476 страниц.
  2. ^ abcde Уильям Дж. Морокофф и Рассел Э. Кафлиш , Интеграция квази-Монте-Карло , J. Comput. Физ. 122 (1995), вып. 2, 218–230. CiteSeer : [1])
  3. ^ Рудольф Шюрер, Сравнение методов (квази-) Монте-Карло и кубатурных правил для решения многомерных задач интеграции , Математика и компьютеры в моделировании, том 62, выпуски 3–6, 3 марта 2003 г., 509–517
  4. ^ Кристиан Лемье, Выборка Монте-Карло и квази-Монте-Карло , Springer, 2009, ISBN  978-1441926760
  5. ^ Моше Дрор, Пьер Л'Экуайер и Ференц Сидаровски, Моделирование неопределенности: исследование стохастической теории, методов и приложений , Springer 2002, стр. 419-474
  6. ^ Бруно Таффин, Рандомизация методов квази-Монте-Карло для оценки ошибок: опрос и нормальное приближение , Методы Монте-Карло и их приложения mcma. Том 10, выпуск 3–4, страницы 617–628, ISSN (онлайн) 1569–3961, ISSN (печать) 0929–9629, doi : 10.1515/mcma.2004.10.3–4.617, май 2008 г.

Внешние ссылки