stringtranslate.com

Независимые и одинаково распределенные случайные величины

Диаграмма, показывающая равномерное распределение. Точки сюжета разбросаны случайным образом, без какой-либо закономерности или кластеров.
Диаграмма, показывающая равномерное распределение

В теории вероятностей и статистике совокупность случайных величин является независимой и одинаково распределенной, если каждая случайная величина имеет такое же распределение вероятностей , как и другие, и все они взаимно независимы . [1] Это свойство обычно обозначается сокращенно iid , iid или IID . IID был впервые определен в статистике и находит применение в различных областях, таких как интеллектуальный анализ данных и обработка сигналов .

Введение

Статистика обычно имеет дело со случайными выборками. Случайную выборку можно рассматривать как набор объектов, выбранных случайным образом. Более формально, это «последовательность независимых, одинаково распределенных (IID) случайных точек данных».

Другими словами, термины «случайная выборка» и IID являются синонимами. В статистике типичным термином является « случайная выборка », но в теории вероятности чаще говорят « IID ».

Приложение

Независимые и одинаково распределенные случайные величины часто используются в качестве допущения, что имеет тенденцию упрощать лежащую в основе математику. Однако в практических приложениях статистического моделирования это предположение может быть, а может и не быть реалистичным. [3]

Предположение iid также используется в центральной предельной теореме , которая утверждает , что распределение вероятностей суммы (или среднего) переменных iid с конечной дисперсией приближается к нормальному распределению . [4]

Предположение iid часто возникает в контексте последовательностей случайных величин. Тогда «независимый и одинаково распределенный» означает, что элемент последовательности не зависит от случайных величин, которые были до него. Таким образом, последовательность iid отличается от последовательности Маркова , где распределение вероятностей для n- й случайной величины является функцией предыдущей случайной величины в последовательности (для последовательности Маркова первого порядка). Последовательность iid не подразумевает, что вероятности для всех элементов выборочного пространства или пространства событий должны быть одинаковыми. [5] Например, повторные броски нагруженных игральных костей дадут последовательность, которая является iid, несмотря на то, что результаты являются предвзятыми.

В обработке сигналов и изображений понятие преобразования в iid подразумевает две спецификации: часть «id» и часть «i». часть:

идентификатор . – Уровень сигнала должен быть сбалансирован по оси времени.

я . – Спектр сигнала должен быть сглажен, т.е. преобразован посредством фильтрации (например, деконволюции ) в сигнал белого шума (т.е. в сигнал, в котором все частоты присутствуют одинаково).

Определение

Определение двух случайных величин

Предположим, что случайные переменные и определены так, чтобы принимать значения в . Пусть и будут кумулятивными функциями распределения и соответственно , и обозначим их совместную кумулятивную функцию распределения через .

Две случайные величины и одинаково распределены тогда и только тогда, когда [6] .

Две случайные величины и независимы тогда и только тогда, когда . (См. далее Независимость (теория вероятностей) § Две случайные величины .)

Две случайные величины и являются iid , если они независимы и одинаково распределены, т.е. тогда и только тогда, когда

Определение для более чем двух случайных величин

Это определение естественным образом распространяется на более чем две случайные величины. Мы говорим, что случайные величины являются иидными , если они независимы (см. далее Независимость (теория вероятностей) § Более двух случайных величин ) и одинаково распределены, т. е. тогда и только тогда, когда

УРАВНЕНИЕ

где обозначает совместную кумулятивную функцию распределения .

Определение независимости

В теории вероятностей два события и называются независимыми тогда и только тогда, когда . Далее это сокращение от .

Предположим, что имеются два события эксперимента и . Если есть возможность . Как правило, возникновение влияет на вероятность — это называется условной вероятностью. Кроме того, только тогда, когда появление не влияет на появление , существует .

Примечание: Если и , то и взаимно независимы, что не может быть установлено с взаимно несовместимыми одновременно; то есть независимость должна быть совместимой, а взаимное исключение должно быть взаимосвязанным.

Предположим , , и – три события. Если , , , и выполняются, то события , , и взаимно независимы.

Более общее определение: есть события . Если вероятности произведения событий для каких-либо событий равны произведению вероятностей каждого события, то события независимы друг от друга.

Примеры

Пример 1

Последовательность результатов вращений честного или нечестного колеса рулетки равна id . Одним из следствий этого является то, что если шарик рулетки приземляется на «красное», например, 20 раз подряд, то следующее вращение с вероятностью не больше и не меньше будет «черным», чем при любом другом вращении (см. заблуждение игрока ). .

Пример 2

Подбросьте монету 10 раз и запишите, сколько раз монета упадет орлом.

  1. Независимый — каждый результат приземления не влияет на другой результат, что означает, что 10 результатов независимы друг от друга.
  2. Одинаково распределено . Независимо от того, является ли монета честной (вероятность 1/2 орла) или нечестной, пока одна и та же монета используется для каждого подбрасывания, каждый подброс будет иметь ту же вероятность, что и каждый другой подброс.

Такая последовательность двух возможных исходов также называется процессом Бернулли .

Пример 3

Бросьте кубик 10 раз и запишите, сколько раз результат равен 1.

  1. Независимый – каждый результат броска кубика не влияет на следующий, что означает, что 10 результатов независимы друг от друга.
  2. Одинаково распределено . Независимо от того, является ли кубик честным или взвешенным, каждый бросок будет иметь ту же вероятность, что и любой другой бросок. Напротив, бросок 10 разных кубиков, некоторые из которых имеют вес, а некоторые нет, не приведет к получению iid-переменных.

Пример 4

Выберите карту из стандартной колоды карт, содержащей 52 карты, затем поместите карту обратно в колоду. Повторите это 52 раза. Запишите количество появившихся королей.

  1. Независимый – каждый результат карты не влияет на следующий, что означает, что 52 результата независимы друг от друга. Напротив, если каждая вытянутая карта не попадает в колоду, это повлияет на последующие взятия (вытягивание одного короля сделает вытягивание второго короля менее вероятным), и результат не будет независимым.
  2. Одинаково распределено . После вытягивания из него одной карты каждый раз вероятность появления короля равна 4/52, что означает, что вероятность каждый раз одинакова.

Обобщения

Многие результаты, которые были впервые доказаны в предположении, что случайные величины являются iid . было показано, что это верно даже при более слабом предположении о распределении.

Сменные случайные величины

Наиболее общим понятием, которое разделяет основные свойства iid-переменных, являются заменяемые случайные величины , введенные Бруно де Финетти . [ нужна цитата ] Заменяемость означает, что, хотя переменные не могут быть независимыми, будущие ведут себя как прошлые — формально любое значение конечной последовательности столь же вероятно, как и любая перестановка этих значений — совместное распределение вероятностей инвариантно относительно симметричной группы .

Это дает полезное обобщение — например, выборка без замены не является независимой, но ее можно заменить.

Процесс Леви

В стохастическом исчислении переменные iid рассматриваются как процесс Леви с дискретным временем : каждая переменная показывает, насколько она изменяется от одного момента времени к другому. Например, последовательность испытаний Бернулли интерпретируется как процесс Бернулли .

Это можно обобщить, включив в него процессы Леви с непрерывным временем , и многие процессы Леви можно рассматривать как пределы переменных iid - например, процесс Винера является пределом процесса Бернулли.

В машинном обучении

Машинное обучение использует огромные объемы доступных в настоящее время данных для получения более быстрых и точных результатов. [7] Для эффективного обучения моделей машинного обучения крайне важно использовать исторические данные, поддающиеся широкому обобщению. Если данные обучения не отражают общую ситуацию, эффективность модели на новых, невидимых данных может быть неточной.

Гипотеза iid , или независимая и одинаково распределенная, позволяет значительно сократить количество отдельных случаев, необходимых в обучающей выборке.

Это предположение упрощает математические вычисления максимизации. В задачах оптимизации предположение о независимом и идентичном распределении упрощает вычисление функции правдоподобия. Ввиду предположения независимости функцию правдоподобия можно выразить как:

.

Чтобы максимизировать вероятность наблюдаемого события, применяется лог-функция для максимизации параметра θ . В частности, он вычисляет:

,

где

.

Компьютеры очень эффективны при выполнении многократного сложения, но не так эффективны при выполнении умножения. Такое упрощение повышает эффективность вычислений. Логарифмическое преобразование в процессе максимизации преобразует многие показательные функции в линейные.

Есть две основные причины, почему эта гипотеза практически полезна с центральной предельной теоремой:

  1. Даже если выборка представляет собой сложное негауссово распределение, ее можно хорошо аппроксимировать, поскольку центральная предельная теорема позволяет упростить ее до гауссова распределения. Для большого количества наблюдаемых выборок «сумма многих случайных величин будет иметь примерно нормальное распределение».
  2. Вторая причина заключается в том, что точность модели зависит от простоты и репрезентативной способности модели, а также от качества данных. Простота устройства облегчает интерпретацию и масштабирование, а репрезентативная мощность и масштабируемость повышают точность модели. Например, в глубокой нейронной сети каждый нейрон является простым, но мощным в представлении, слой за слоем, фиксируя более сложные функции для повышения точности модели.

Смотрите также

Рекомендации

  1. ^ Клаузет, Аарон (2011). «Краткое руководство по распределениям вероятностей» (PDF) . Институт Санта-Фе . Архивировано из оригинала (PDF) 20 января 2012 г. Проверено 29 ноября 2011 г.
  2. ^ Стефани (11 мая 2016 г.). «Статистика IID: независимое и одинаково распределенное определение и примеры». Статистика Как сделать . Проверено 9 декабря 2021 г.
  3. ^ Хэмпель, Фрэнк (1998), «Слишком ли сложна статистика?», Canadian Journal ofStatistics , 26 (3): 497–513, doi : 10.2307/3315772, hdl : 20.500.11850/145503 , JSTOR  3315772, S2CID  53117661(§8).
  4. ^ Блюм, младший; Чернов, Х.; Розенблатт, М.; Тейчер, Х. (1958). «Центральные предельные теоремы для взаимозаменяемых процессов». Канадский математический журнал . 10 : 222–229. дои : 10.4153/CJM-1958-026-0 . S2CID  124843240.
  5. ^ Обложка, ТМ; Томас, Дж. А. (2006). Элементы теории информации . Уайли-Интерсайенс . стр. 57–58. ISBN 978-0-471-24195-9.
  6. ^ Казелла и Бергер 2002, Теорема 1.5.10.
  7. ^ «Что такое машинное обучение? Определение» . Эксперт.ай . 05.05.2020 . Проверено 16 декабря 2021 г.

дальнейшее чтение