stringtranslate.com

Распределение субгаусса

В теории вероятностей , субгауссовское распределение , распределение субгауссовой случайной величины , является распределением вероятностей с сильным затуханием хвоста. Более конкретно, хвосты субгауссовского распределения доминируются (т.е. затухают по крайней мере так же быстро, как) хвосты гауссовского . Это свойство дало субгауссовским распределениям их название.

Часто при анализе мы делим объект (например, случайную величину) на две части, центральную часть и дальний хвост, а затем анализируем каждую из них по отдельности. В вероятности это разделение обычно выглядит так: «Все интересное происходит около центра. Событие хвоста настолько редко, что мы можем спокойно его игнорировать». Субгауссовы распределения достойны изучения, потому что гауссово распределение хорошо изучено, и поэтому мы можем дать четкие границы редкости события хвоста. Аналогично, субэкспоненциальные распределения также достойны изучения.

Формально распределение вероятностей случайной величины называется субгауссовым, если существует положительная константа C такая, что для каждого ,

.

Существует много эквивалентных определений. Например, случайная величина является субгауссовой, если и только если ее функция распределения ограничена сверху (с точностью до константы) функцией распределения гауссовой:

где — константа, а — гауссовская случайная величина с нулевым средним. [1] : Теорема 2.6 

Определения

Субгауссова норма

Субгауссовская норма , обозначаемая как , равна Другими словами, это норма Орлича , генерируемая функцией Орлича Согласно следующему условию , субгауссовские случайные величины могут быть охарактеризованы как случайные величины с конечной субгауссовой нормой.

Прокси-коэффициент дисперсии

Если существует такое , что для всех , то называется прокси-фактором дисперсии , а наименьшее такое называется оптимальным прокси-фактором дисперсии и обозначается .

Так как когда является гауссовым, то имеем , как и должно быть.

Эквивалентные определения

Пусть — случайная величина. Следующие условия эквивалентны: (Предложение 2.5.2 [2] )

  1. Граница вероятности хвоста: для всех , где — положительная константа;
  2. Конечная субгауссова норма: ;
  3. Момент : для всех , где — положительная константа, а — гамма-функция ;
  4. Момент : для всех ;
  5. Функция, генерирующая момент ( или дисперсионный прокси-фактор) [3] [4]  : для всех , где — положительная константа;
  6. Функция, производящая момент (от ): для некоторых , для всех ;
  7. Граница объединения : для некоторого c > 0 , для всех n > c , где — iid копии X ;
  8. Субэкспоненциальный : имеет субэкспоненциальное распределение.

Более того, константа одинакова в определениях (1) - (5) с точностью до абсолютной константы. Так, например, если случайная величина удовлетворяет (1) и (2), минимальные константы в двух определениях удовлетворяют , где - константы, независимые от случайной величины.

Доказательство эквивалентности

Например, первые четыре определения эквивалентны согласно доказательству ниже.

Доказательство . По представлению в виде слоеного пирога ,


После замены переменных находим, что По ряду Тейлора , который меньше или равен для . Пусть , тогда


По неравенству Маркова , по асимптотической формуле для гамма-функции: .

Из доказательства можно извлечь цикл из трех неравенств:

В частности, константы, указанные в определениях, совпадают с точностью до постоянного множителя, поэтому можно сказать, что определения эквивалентны с точностью до постоянной, не зависящей от .

Аналогично, поскольку с точностью до положительной мультипликативной константы для всех , определения (3) и (4) также эквивалентны с точностью до константы.

Основные свойства

Предложение.

Предложение. ( Граница Чернова ) Если является субгауссовой, то для всех .

Определение. означает , что , где положительная константа не зависит от и .

Предложение. Если субгауссово, то .

Доказательство. По неравенству треугольника, . Теперь имеем . В силу эквивалентности определений (2) и (4) субгауссовости, приведенных выше, имеем .

Предложение. Если субгауссовы и независимы, то .

Доказательство. Если независимы, то используем, что кумулянт независимых случайных величин является аддитивным. То есть, .

Если не независимы, то по неравенству Гёльдера для любого имеем Решая задачу оптимизации , получаем результат.

Следствие. Линейные суммы субгауссовых случайных величин являются субгауссовыми.

Строго субгауссово

Раскрывая кумулянтную производящую функцию : находим, что . На грани возможности определяем, что случайная величина, удовлетворяющая , называется строго субгауссовой.

Характеристики

Теорема. [5] Пусть — субгауссовская случайная величина со средним значением нулевым. Если все нули ее характеристической функции вещественны, то — строго субгауссова.

Следствие. Если независимы и строго субгауссовы, то любая их линейная сумма строго субгауссова.

Примеры

Вычислив характеристические функции, можно показать, что некоторые распределения являются строго субгауссовыми: симметричное равномерное распределение, симметричное распределение Бернулли.

Поскольку симметричное равномерное распределение строго субгауссово, его свертка с самим собой строго субгауссова. То есть симметричное треугольное распределение строго субгауссово.

Поскольку симметричное распределение Бернулли является строго субгауссовым, любое симметричное биномиальное распределение является строго субгауссовым.

Примеры

Оптимальная прокси-функция дисперсии известна для многих стандартных распределений вероятностей, включая бета, Бернулли, Дирихле [6] , Кумарасвами, треугольное [7] , усеченное гауссово и усеченное экспоненциальное [8] .

Распределение Бернулли

Пусть будет два положительных числа. Пусть будет центрированным распределением Бернулли , так что оно имеет нулевое среднее значение, тогда . [5] Его субгауссова норма равна , где — единственное положительное решение для .

Пусть — случайная величина с симметричным распределением Бернулли (или распределением Радемахера ). То есть принимает значения и с вероятностями каждое. Поскольку , то следует, что и, следовательно, является субгауссовой случайной величиной.

Ограниченные распределения

Некоторые часто используемые ограниченные распределения.

Ограниченные распределения вообще не имеют хвоста, поэтому они, очевидно, являются субгауссовыми.

Если ограничено в интервале , лемма Хеффдинга утверждает, что . Неравенство Хеффдинга представляет собой границу Чернова, полученную с использованием этого факта.

Извилины

Плотность смеси трех нормальных распределений ( μ  = 5, 10, 15, σ  = 2) с равными весами. Каждый компонент показан как взвешенная плотность (каждый интегрируется до 1/3)

Поскольку сумма субгауссовых случайных величин все еще субгауссова, свертка субгауссовых распределений все еще субгауссова. В частности, любая свертка нормального распределения с любым ограниченным распределением является субгауссовой.

Смеси

Учитывая субгауссовские распределения , мы можем построить аддитивную смесь следующим образом: сначала случайным образом выбираем число , затем выбираем .

Так как у нас , то и смесь является субгауссовой.

В частности, любая гауссова смесь является субгауссовой.

В более общем случае смесь бесконечного числа субгауссовых распределений также является субгауссовой, если субгауссова норма имеет конечный супремум: .

Субгауссовские случайные векторы

До сих пор мы обсуждали субгауссовость для действительных случайных величин. Мы также можем определить субгауссовость для случайных векторов. Цель субгауссовости — сделать так, чтобы хвосты быстро затухали, поэтому мы обобщаем соответствующим образом: субгауссов случайный вектор — это случайный вектор, у которого хвост быстро затухает.

Пусть будет случайным вектором, принимающим значения в .

Определять.

Теорема. (Теорема 3.4.6 [2] ) Для любого положительного целого числа равномерно распределенный случайный вектор является субгауссовым, причем .

Это не так уж и удивительно, поскольку при проекция на первую координату сходится по распределению к стандартному нормальному распределению.

Максимальные неравенства

Предложение. Если — субгауссианы с нулевым средним, причем , то для любого имеем с вероятностью .

Доказательство. По границе Чернова, . Теперь применим границу объединения .

Предложение. (Упражнение 2.5.10 [2] ) Если являются субгауссианами, причем , то Далее, граница точная, поскольку когда являются выборками IID из , то мы имеем . [9]

[10]

Теорема. (над конечным множеством) Если являются субгауссовыми, причем , то Теорема. (над выпуклым многогранником ) Зафиксируем конечное множество векторов . Если — случайный вектор, такой что каждый , то выполнены 4 приведенных выше неравенства с заменой .

Здесь — выпуклый многогранник, натянутый на векторы .

Теорема. (над шаром) Если — случайный вектор в , такой, что для всех на единичной сфере , то Для любого , с вероятностью не менее ,

Неравенства

Теорема. (Теорема 2.6.1 [2] ) Существует положительная константа такая, что для любого числа независимых субгауссовых случайных величин с нулевым средним значением , Теорема. (Неравенство Хеффдинга) (Теорема 2.6.3 [2] ) Существует положительная константа такая, что для любого числа независимых субгауссовых случайных величин с нулевым средним значением , Теорема. (Неравенство Бернштейна) (Теорема 2.8.1 [2] ) Существует положительная константа такая, что для любого числа независимых субэкспоненциальных случайных величин с нулевым средним значением , Теорема. (Неравенство Хинчина) (Упражнение 2.6.5 [2] ) Существует положительная константа такая, что для любого числа независимых субгауссовых случайных величин с нулевым средним значением и единичной дисперсией , любые , и любые ,

неравенство Хансона-Райта

Неравенство Хансона -Райта утверждает, что если случайный вектор является субгауссовым в определенном смысле, то любая квадратичная форма этого вектора, , также является субгауссовой/субэкспоненциальной. Кроме того, верхняя граница хвоста , является равномерной .

Слабая версия следующей теоремы была доказана в (Хэнсон, Райт, 1971). [11] Существует множество расширений и вариантов. Подобно центральной предельной теореме, неравенство Хансона-Райта представляет собой скорее кластер теорем с одной и той же целью, чем единую теорему. Цель состоит в том, чтобы взять субгауссовский вектор и равномерно ограничить его квадратичные формы.

Теорема. [12] [13] Существует константа , такая что:

Пусть будет положительным целым числом. Пусть будет независимыми случайными величинами, такими, что каждая удовлетворяет . Объединим их в случайный вектор . Для любой матрицы имеем , где , а — норма Фробениуса матрицы, а — операторная норма матрицы.

Другими словами, хвост квадратичной формы равномерно ограничен экспонентой или гауссовой функцией, в зависимости от того, какая из них больше.


В формулировке теоремы константа является «абсолютной константой», что означает, что она не зависит от . Это математическая константа, во многом похожая на пи и е .

Последствия

Теорема (субгауссовская концентрация). [12] Существует константа , такая, что:

Пусть будут положительными целыми числами. Пусть будут независимыми случайными величинами, такими, что каждая удовлетворяет . Объединим их в случайный вектор . Для любой матрицы , мы имеем Иными словами, случайный вектор сосредоточен на сферической оболочке радиуса , такой что является субгауссовой, с субгауссовой нормой .

Смотрите также

Примечания

  1. ^ Уэйнрайт М. Дж. Высокомерная статистика: неасимптотическая точка зрения . Кембридж: Издательство Кембриджского университета; 2019. doi : 10.1017/9781108627771, ISBN 9781108627771
  2. ^ abcdefg Вершинин, Р. (2018). Вероятность больших измерений: введение с приложениями в науке о данных . Кембридж: Cambridge University Press.
  3. ^ Кахане, Дж. (1960). «Локальные свойства функций серии функций Фурье». Студия Математика . 19 :1–25. дои : 10.4064/см-19-1-1-25.
  4. ^ Булдыгин, В.В.; Козаченко, Ю. В. (1980). «Субгауссовы случайные величины». Украинский математический журнал . 32 (6): 483–489. дои : 10.1007/BF01087176.
  5. ^ ab Бобков, СГ; Чистяков, ГП; Гётце, Ф. (2023-08-03). "Строго субгауссовские распределения вероятностей". arXiv : 2308.01749 [math.PR].
  6. ^ Маршал, Оливье; Арбель, Жюльен (2017). «О субгауссовости распределений Бета и Дирихле». Электронные коммуникации в теории вероятностей . 22. arXiv : 1705.00048 . doi : 10.1214/17-ECP92 .
  7. ^ Арбель, Хулиан; Маршал, Оливье; Нгуен, Хиен Д. (2020). «О строгой субгауссовости, оптимальной прокси-дисперсии и симметрии для ограниченных случайных величин». Esaim: Вероятность и статистика . 24 : 39–55. arXiv : 1901.09188 . doi : 10.1051/ps/2019018.
  8. ^ Баррето, Матиас; Маршал, Оливье; Арбель, Жульян (2024). «Оптимальный прокси-сервер субгауссовой дисперсии для усеченных гауссовых и экспоненциальных случайных величин». arXiv : 2403.08628 [math.ST].
  9. ^ Камат, Гаутам. «Границы на ожидание максимума выборок из гауссианы». (2015)
  10. ^ "MIT 18.S997 | Весна 2015 | Высокомерная статистика, Глава 1. Субгауссовские случайные величины" (PDF) . MIT OpenCourseWare . Получено 2024-04-03 .
  11. ^ Хансон, Д. Л.; Райт, Ф. Т. (1971). «Граница хвостовых вероятностей для квадратичных форм от независимых случайных величин». Анналы математической статистики . 42 (3): 1079–1083. doi : 10.1214/aoms/1177693335 . ISSN  0003-4851. JSTOR  2240253.
  12. ^ ab Рудельсон, Марк; Вершинин, Роман (январь 2013 г.). «Неравенство Хансона-Райта и субгауссовская концентрация». Electronic Communications in Probability . 18 (нет): 1–9. arXiv : 1306.2872 . doi :10.1214/ECP.v18-2865. ISSN  1083-589X.
  13. ^ Вершинин, Роман (2018). "6. Квадратичные формы, симметризация и контракция". Вероятность высокой размерности: введение с приложениями в науке о данных. Серия Cambridge по статистической и вероятностной математике. Кембридж: Cambridge University Press. стр. 127–146. doi : 10.1017/9781108231596.009. ISBN 978-1-108-41519-4.

Ссылки