В теории вероятностей , субгауссовское распределение , распределение субгауссовой случайной величины , является распределением вероятностей с сильным затуханием хвоста. Более конкретно, хвосты субгауссовского распределения доминируются (т.е. затухают по крайней мере так же быстро, как) хвосты гауссовского . Это свойство дало субгауссовским распределениям их название.
Часто при анализе мы делим объект (например, случайную величину) на две части, центральную часть и дальний хвост, а затем анализируем каждую из них по отдельности. В вероятности это разделение обычно выглядит так: «Все интересное происходит около центра. Событие хвоста настолько редко, что мы можем спокойно его игнорировать». Субгауссовы распределения достойны изучения, потому что гауссово распределение хорошо изучено, и поэтому мы можем дать четкие границы редкости события хвоста. Аналогично, субэкспоненциальные распределения также достойны изучения.
Формально распределение вероятностей случайной величины называется субгауссовым, если существует положительная константа C такая, что для каждого ,
.
Существует много эквивалентных определений. Например, случайная величина является субгауссовой, если и только если ее функция распределения ограничена сверху (с точностью до константы) функцией распределения гауссовой:
где — константа, а — гауссовская случайная величина с нулевым средним. [1] : Теорема 2.6
Определения
Субгауссова норма
Субгауссовская норма , обозначаемая как , равна Другими словами, это норма Орлича , генерируемая функцией Орлича Согласно следующему условию , субгауссовские случайные величины могут быть охарактеризованы как случайные величины с конечной субгауссовой нормой.
Прокси-коэффициент дисперсии
Если существует такое , что для всех , то называется прокси-фактором дисперсии , а наименьшее такое называется оптимальным прокси-фактором дисперсии и обозначается .
Так как когда является гауссовым, то имеем , как и должно быть.
Эквивалентные определения
Пусть — случайная величина. Следующие условия эквивалентны: (Предложение 2.5.2 [2] )
Граница вероятности хвоста: для всех , где — положительная константа;
Более того, константа одинакова в определениях (1) - (5) с точностью до абсолютной константы. Так, например, если случайная величина удовлетворяет (1) и (2), минимальные константы в двух определениях удовлетворяют , где - константы, независимые от случайной величины.
Доказательство эквивалентности
Например, первые четыре определения эквивалентны согласно доказательству ниже.
Из доказательства можно извлечь цикл из трех неравенств:
Если , то для всех .
Если для всех , то .
Если , то .
В частности, константы, указанные в определениях, совпадают с точностью до постоянного множителя, поэтому можно сказать, что определения эквивалентны с точностью до постоянной, не зависящей от .
Аналогично, поскольку с точностью до положительной мультипликативной константы для всех , определения (3) и (4) также эквивалентны с точностью до константы.
Основные свойства
Предложение.
Если субгауссово, и , то и .
Если субгауссовы, то .
Предложение. ( Граница Чернова ) Если является субгауссовой, то для всех .
Определение. означает , что , где положительная константа не зависит от и .
Предложение. Если субгауссово, то .
Доказательство. По неравенству треугольника, . Теперь имеем . В силу эквивалентности определений (2) и (4) субгауссовости, приведенных выше, имеем .
Предложение. Если субгауссовы и независимы, то .
Доказательство. Если независимы, то используем, что кумулянт независимых случайных величин является аддитивным. То есть, .
Если не независимы, то по неравенству Гёльдера для любого имеем Решая задачу оптимизации , получаем результат.
Следствие. Линейные суммы субгауссовых случайных величин являются субгауссовыми.
Строго субгауссово
Раскрывая кумулянтную производящую функцию : находим, что . На грани возможности определяем, что случайная величина, удовлетворяющая , называется строго субгауссовой.
Характеристики
Теорема. [5] Пусть — субгауссовская случайная величина со средним значением нулевым. Если все нули ее характеристической функции вещественны, то — строго субгауссова.
Следствие. Если независимы и строго субгауссовы, то любая их линейная сумма строго субгауссова.
Примеры
Вычислив характеристические функции, можно показать, что некоторые распределения являются строго субгауссовыми: симметричное равномерное распределение, симметричное распределение Бернулли.
Поскольку симметричное равномерное распределение строго субгауссово, его свертка с самим собой строго субгауссова. То есть симметричное треугольное распределение строго субгауссово.
Поскольку симметричное распределение Бернулли является строго субгауссовым, любое симметричное биномиальное распределение является строго субгауссовым.
Примеры
Оптимальная прокси-функция дисперсии известна для многих стандартных распределений вероятностей, включая бета, Бернулли, Дирихле [6] , Кумарасвами, треугольное [7] , усеченное гауссово и усеченное экспоненциальное [8] .
Распределение Бернулли
Пусть будет два положительных числа. Пусть будет центрированным распределением Бернулли , так что оно имеет нулевое среднее значение, тогда . [5] Его субгауссова норма равна , где — единственное положительное решение для .
Пусть — случайная величина с симметричным распределением Бернулли (или распределением Радемахера ). То есть принимает значения и с вероятностями каждое. Поскольку , то следует, что и, следовательно, является субгауссовой случайной величиной.
Ограниченные распределения
Ограниченные распределения вообще не имеют хвоста, поэтому они, очевидно, являются субгауссовыми.
Если ограничено в интервале , лемма Хеффдинга утверждает, что . Неравенство Хеффдинга представляет собой границу Чернова, полученную с использованием этого факта.
Извилины
Поскольку сумма субгауссовых случайных величин все еще субгауссова, свертка субгауссовых распределений все еще субгауссова. В частности, любая свертка нормального распределения с любым ограниченным распределением является субгауссовой.
Смеси
Учитывая субгауссовские распределения , мы можем построить аддитивную смесь следующим образом: сначала случайным образом выбираем число , затем выбираем .
Так как у нас , то и смесь является субгауссовой.
В частности, любая гауссова смесь является субгауссовой.
В более общем случае смесь бесконечного числа субгауссовых распределений также является субгауссовой, если субгауссова норма имеет конечный супремум: .
Субгауссовские случайные векторы
До сих пор мы обсуждали субгауссовость для действительных случайных величин. Мы также можем определить субгауссовость для случайных векторов. Цель субгауссовости — сделать так, чтобы хвосты быстро затухали, поэтому мы обобщаем соответствующим образом: субгауссов случайный вектор — это случайный вектор, у которого хвост быстро затухает.
Пусть будет случайным вектором, принимающим значения в .
Определять.
, где — единичная сфера в .
является субгауссовым тогда и только тогда .
Теорема. (Теорема 3.4.6 [2] ) Для любого положительного целого числа равномерно распределенный случайный вектор является субгауссовым, причем .
Это не так уж и удивительно, поскольку при проекция на первую координату сходится по распределению к стандартному нормальному распределению.
Максимальные неравенства
Предложение. Если — субгауссианы с нулевым средним, причем , то для любого имеем с вероятностью .
Предложение. (Упражнение 2.5.10 [2] ) Если являются субгауссианами, причем , то Далее, граница точная, поскольку когда являются выборками IID из , то мы имеем . [9]
[10]
Теорема. (над конечным множеством) Если являются субгауссовыми, причем , то Теорема. (над выпуклым многогранником ) Зафиксируем конечное множество векторов . Если — случайный вектор, такой что каждый , то выполнены 4 приведенных выше неравенства с заменой .
Здесь — выпуклый многогранник, натянутый на векторы .
Теорема. (над шаром) Если — случайный вектор в , такой, что для всех на единичной сфере , то Для любого , с вероятностью не менее ,
Неравенства
Теорема. (Теорема 2.6.1 [2] ) Существует положительная константа такая, что для любого числа независимых субгауссовых случайных величин с нулевым средним значением , Теорема. (Неравенство Хеффдинга) (Теорема 2.6.3 [2] ) Существует положительная константа такая, что для любого числа независимых субгауссовых случайных величин с нулевым средним значением , Теорема. (Неравенство Бернштейна) (Теорема 2.8.1 [2] ) Существует положительная константа такая, что для любого числа независимых субэкспоненциальных случайных величин с нулевым средним значением , Теорема. (Неравенство Хинчина) (Упражнение 2.6.5 [2] ) Существует положительная константа такая, что для любого числа независимых субгауссовых случайных величин с нулевым средним значением и единичной дисперсией , любые , и любые ,
неравенство Хансона-Райта
Неравенство Хансона -Райта утверждает, что если случайный вектор является субгауссовым в определенном смысле, то любая квадратичная форма этого вектора, , также является субгауссовой/субэкспоненциальной. Кроме того, верхняя граница хвоста , является равномерной .
Слабая версия следующей теоремы была доказана в (Хэнсон, Райт, 1971). [11] Существует множество расширений и вариантов. Подобно центральной предельной теореме, неравенство Хансона-Райта представляет собой скорее кластер теорем с одной и той же целью, чем единую теорему. Цель состоит в том, чтобы взять субгауссовский вектор и равномерно ограничить его квадратичные формы.
Теорема. [12] [13] Существует константа , такая что:
Пусть будет положительным целым числом. Пусть будет независимыми случайными величинами, такими, что каждая удовлетворяет . Объединим их в случайный вектор . Для любой матрицы имеем , где , а — норма Фробениуса матрицы, а — операторная норма матрицы.
Другими словами, хвост квадратичной формы равномерно ограничен экспонентой или гауссовой функцией, в зависимости от того, какая из них больше.
В формулировке теоремы константа является «абсолютной константой», что означает, что она не зависит от . Это математическая константа, во многом похожая на пи и е .
Последствия
Теорема (субгауссовская концентрация). [12] Существует константа , такая, что:
Пусть будут положительными целыми числами. Пусть будут независимыми случайными величинами, такими, что каждая удовлетворяет . Объединим их в случайный вектор . Для любой матрицы , мы имеем Иными словами, случайный вектор сосредоточен на сферической оболочке радиуса , такой что является субгауссовой, с субгауссовой нормой .
^ Уэйнрайт М. Дж. Высокомерная статистика: неасимптотическая точка зрения . Кембридж: Издательство Кембриджского университета; 2019. doi : 10.1017/9781108627771, ISBN 9781108627771 .
^ abcdefg Вершинин, Р. (2018). Вероятность больших измерений: введение с приложениями в науке о данных . Кембридж: Cambridge University Press.
^ Кахане, Дж. (1960). «Локальные свойства функций серии функций Фурье». Студия Математика . 19 :1–25. дои : 10.4064/см-19-1-1-25.
^ Булдыгин, В.В.; Козаченко, Ю. В. (1980). «Субгауссовы случайные величины». Украинский математический журнал . 32 (6): 483–489. дои : 10.1007/BF01087176.
^ ab Бобков, СГ; Чистяков, ГП; Гётце, Ф. (2023-08-03). "Строго субгауссовские распределения вероятностей". arXiv : 2308.01749 [math.PR].
^ Маршал, Оливье; Арбель, Жюльен (2017). «О субгауссовости распределений Бета и Дирихле». Электронные коммуникации в теории вероятностей . 22. arXiv : 1705.00048 . doi : 10.1214/17-ECP92 .
^ Арбель, Хулиан; Маршал, Оливье; Нгуен, Хиен Д. (2020). «О строгой субгауссовости, оптимальной прокси-дисперсии и симметрии для ограниченных случайных величин». Esaim: Вероятность и статистика . 24 : 39–55. arXiv : 1901.09188 . doi : 10.1051/ps/2019018.
^ Хансон, Д. Л.; Райт, Ф. Т. (1971). «Граница хвостовых вероятностей для квадратичных форм от независимых случайных величин». Анналы математической статистики . 42 (3): 1079–1083. doi : 10.1214/aoms/1177693335 . ISSN 0003-4851. JSTOR 2240253.
^ ab Рудельсон, Марк; Вершинин, Роман (январь 2013 г.). «Неравенство Хансона-Райта и субгауссовская концентрация». Electronic Communications in Probability . 18 (нет): 1–9. arXiv : 1306.2872 . doi :10.1214/ECP.v18-2865. ISSN 1083-589X.
^ Вершинин, Роман (2018). "6. Квадратичные формы, симметризация и контракция". Вероятность высокой размерности: введение с приложениями в науке о данных. Серия Cambridge по статистической и вероятностной математике. Кембридж: Cambridge University Press. стр. 127–146. doi : 10.1017/9781108231596.009. ISBN978-1-108-41519-4.
Ссылки
Кахане, JP (1960). «Локальные свойства функций серии функций Фурье». Студия Математика . 19 : 1–25. дои : 10.4064/см-19-1-1-25 .
Булдыгин В.В.; Козаченко, Ю.В. (1980). «Субгауссовы случайные величины». Украинский математический журнал . 32 (6): 483–489. дои : 10.1007/BF01087176.
Стромберг, К. Р. (1994). Вероятность для аналитиков . Chapman & Hall/CRC.
Литвак, А.Е.; Пайор, А.; Рудельсон, М.; Томчак-Йегерманн, Н. (2005). «Наименьшее сингулярное значение случайных матриц и геометрия случайных многогранников» (PDF) . Успехи математики . 195 (2): 491–523. doi : 10.1016/j.aim.2004.08.004 .
Рудельсон, Марк; Вершинин, Роман (2010). «Неасимптотическая теория случайных матриц: экстремальные сингулярные значения». Труды Международного конгресса математиков 2010 г. С. 1576–1602. arXiv : 1003.2990 . doi :10.1142/9789814324359_0111.
Вершинин, Р. (2018). «Высокоразмерная вероятность: введение с приложениями в науке о данных» (PDF). Том 47 Кембриджской серии по статистической и вероятностной математике . Cambridge University Press, Кембридж.
Зайковский, К. (2020). «О нормах в некотором классе пространств Орлича экспоненциального типа случайных величин». Позитивность. Международный математический журнал, посвященный теории и приложениям позитивности. 24 (5): 1231--1240. arXiv :1709.02970. doi :10.1007/s11117-019-00729-6.