stringtranslate.com

Байесовский вывод

Байесовский вывод ( / ˈ b z i ən / BAY -zee-ən или / ˈ b ʒ ən / BAY -zhən ) [1] — это метод статистического вывода, в котором теорема Байеса используется для обновления вероятности для гипотезу по мере появления новых доказательств или информации . По сути, байесовский вывод использует априорные знания в форме априорного распределения для оценки апостериорных вероятностей. Байесовский вывод — важный метод в статистике , особенно в математической статистике . Байесовское обновление особенно важно при динамическом анализе последовательности данных . Байесовский вывод нашел применение в широком спектре деятельности, включая науку , инженерное дело , философию , медицину , спорт и право . В философии теории принятия решений байесовский вывод тесно связан с субъективной вероятностью, часто называемой « байесовской вероятностью ».

Введение в правило Байеса

Геометрическая визуализация теоремы Байеса. В таблице значения 2, 3, 6 и 9 обозначают относительные веса каждого соответствующего условия и случая. Цифры обозначают ячейки таблицы, участвующие в каждой метрике, причем вероятность представляет собой долю каждой заштрихованной цифры. Это показывает, что P(A|B) P(B) = P(B|A) P(A), т.е. P(A|B) =Р(Б|А) Р(А)/П(Б). Аналогичные рассуждения можно использовать, чтобы показать, что P(¬A|B) =P(B|¬A) P(¬A)/П(Б)и т. д.

Формальное объяснение

Байесовский вывод выводит апостериорную вероятность как следствие двух антецедентов : априорной вероятности и « функции правдоподобия », полученной из статистической модели для наблюдаемых данных. Байесовский вывод вычисляет апостериорную вероятность в соответствии с теоремой Байеса :

Для разных значений только факторы и , оба в числителе, влияют на значение  – апостериорная вероятность гипотезы пропорциональна ее априорной вероятности (присущей ей правдоподобности) и вновь полученному правдоподобию (ее совместимости с новыми наблюдаемыми доказательствами). ).

В случаях, когда («не »), логическое отрицание , является допустимой вероятностью, правило Байеса можно переписать следующим образом:

Один из быстрых и простых способов запомнить уравнение — использовать правило умножения :

Альтернативы байесовскому обновлению

Байесовское обновление широко используется и удобно в вычислительном отношении. Однако это не единственное правило обновления, которое можно считать рациональным.

Ян Хакинг отметил, что традиционные аргументы « голландской книги » не определяют байесовское обновление: они оставляют открытой возможность того, что небайесовские правила обновления могут избежать голландских книг. Хакинг писал: [2] «И ни аргумент голландской книги, ни какой-либо другой из персоналистского арсенала доказательств аксиом вероятности не влечет за собой динамическое предположение. Ни один из них не влечет за собой байесианство. Таким образом, персоналист требует, чтобы динамическое предположение было байесовским. Это правда что в целях последовательности персоналист может отказаться от байесовской модели обучения на опыте. Соль может потерять свою силу».

Действительно, существуют небайесовские правила обновления, которые также избегают голландских книг (как обсуждалось в литературе по « кинематике вероятности ») после публикации правила Ричарда К. Джеффри , которое применяет правило Байеса к случаю, когда сами доказательства присваивается вероятность. [3] Дополнительные гипотезы, необходимые для однозначного требования байесовского обновления, считаются существенными, сложными и неудовлетворительными. [4]

Вывод об исключительных и исчерпывающих возможностях

Если доказательства одновременно используются для обновления убеждений по поводу набора исключительных и исчерпывающих предложений, байесовский вывод можно рассматривать как воздействующий на это распределение убеждений в целом.

Общая формулировка

Диаграмма, иллюстрирующая пространство событий в общей формулировке байесовского вывода. Хотя на этой диаграмме показаны дискретные модели и события, непрерывный случай можно визуализировать аналогичным образом, используя плотности вероятности.

Предположим, что процесс генерирует независимые и одинаково распределенные события , но распределение вероятностей неизвестно. Пусть пространство событий представляет текущее состояние уверенности в этом процессе. Каждая модель представлена ​​событием . Условные вероятности указаны для определения моделей. это степень веры в . Перед первым шагом вывода находится набор начальных априорных вероятностей . Их сумма должна быть равна 1, но в остальном они произвольны.

Предположим, что наблюдается процесс генерации . Для каждого предшествующий обновляется до последующего . Из теоремы Байеса : [5]

При обнаружении дополнительных доказательств эту процедуру можно повторить.

Множественные наблюдения

Для последовательности независимых и одинаково распределенных наблюдений можно с помощью индукции показать, что повторное применение вышеизложенного эквивалентно

Параметрическая формулировка: мотивация формального описания

Путем параметризации пространства моделей доверие ко всем моделям можно обновить за один шаг. Тогда распределение убеждений по пространству модели можно рассматривать как распределение убеждений по пространству параметров. Распределения в этом разделе выражены как непрерывные и представлены плотностями вероятности, поскольку это обычная ситуация. Однако этот метод в равной степени применим и к дискретным распределениям.

Пусть вектор охватывает пространство параметров. Пусть исходное априорное распределение будет , где — набор параметров самого априора или гиперпараметров . Пусть — последовательность независимых и одинаково распределенных наблюдений событий, где все распределены как для некоторого . Теорема Байеса применяется для нахождения апостериорного распределения по :

Формальное описание байесовского вывода

Определения

Байесовский вывод

Байесовское предсказание

Байесовская теория призывает использовать апостериорное прогнозируемое распределение для прогнозирования , то есть для прогнозирования распределения новой, ненаблюдаемой точки данных. То есть вместо фиксированной точки в качестве прогноза возвращается распределение по возможным точкам. Только таким образом используется все апостериорное распределение параметра(ов). Для сравнения, прогнозирование в частотной статистике часто включает в себя поиск оптимальной точечной оценки параметра(ов) — например, по максимальному правдоподобию или максимальной апостериорной оценке (MAP) — а затем включение этой оценки в формулу для распределения точки данных. . Недостатком этого подхода является то, что он не учитывает никакой неопределенности в значении параметра и, следовательно, приводит к недооценке дисперсии прогнозируемого распределения.

В некоторых случаях частотная статистика может обойти эту проблему. Например, доверительные интервалы и интервалы прогнозирования в частотной статистике, построенные на основе нормального распределения с неизвестными средним значением и дисперсией , строятся с использованием t-распределения Стьюдента . Это правильно оценивает дисперсию благодаря тому факту, что (1) среднее значение нормально распределенных случайных величин также нормально распределено и (2) прогнозируемое распределение нормально распределенной точки данных с неизвестным средним значением и дисперсией с использованием сопряженных или неинформативных априорных значений. , имеет t-распределение Стьюдента. Однако в байесовской статистике апостериорное прогнозируемое распределение всегда можно определить точно — или, по крайней мере, с произвольным уровнем точности при использовании численных методов.

Оба типа прогнозных распределений имеют форму сложного распределения вероятностей (как и предельное правдоподобие ). Фактически, если априорное распределение является сопряженным априорным , так что априорное и апостериорное распределения происходят из одного и того же семейства, можно видеть, что и априорное, и апостериорное прогнозирующие распределения также происходят из одного и того же семейства составных распределений. Единственное отличие состоит в том, что апостериорное прогнозирующее распределение использует обновленные значения гиперпараметров (применяя байесовские правила обновления, приведенные в сопряженной предыдущей статье), тогда как априорное прогнозирующее распределение использует значения гиперпараметров, которые появляются в предыдущем распределении.


Математические свойства

Интерпретация фактора

. То есть, если бы модель была верной, доказательства были бы более вероятными, чем предсказывается текущим состоянием убеждений. Обратное справедливо для уменьшения веры. Если убеждение не изменится, . То есть доказательства не зависят от модели. Если бы модель была верной, доказательства были бы точно такими же вероятными, как предсказывается текущим состоянием убеждений.

Правило Кромвеля

Если тогда . Если и , то . Это можно интерпретировать как означающее, что твердые убеждения нечувствительны к контрдоказательствам.

Первое следует непосредственно из теоремы Байеса. Последнее можно получить, применив первое правило к событию «не » вместо « », получая «если , то », из которого немедленно следует результат.

Асимптотическое поведение задней

Рассмотрим поведение распределения убеждений, когда оно обновляется большое количество раз с помощью независимых и одинаково распределенных испытаний. Для достаточно хороших априорных вероятностей теорема Бернштейна-фон Мизеса показывает, что в пределе бесконечных испытаний апостериорное распределение сходится к гауссовскому распределению , независимому от начального априора, при некоторых условиях, впервые изложенных и строго доказанных Джозефом Л. Дубом в 1948 году, а именно: если рассматриваемая случайная величина имеет конечное вероятностное пространство . Более общие результаты были получены позже статистиком Дэвидом А. Фридманом , который опубликовал две плодотворные исследовательские статьи в 1963 [8] и 1965 [9] о том, когда и при каких обстоятельствах гарантируется асимптотическое поведение апостериорной функции. В его статье 1963 года, как и у Дуба (1949), рассматривается конечный случай, и он приходит к удовлетворительному выводу. Однако, если случайная величина имеет бесконечное, но счетное вероятностное пространство (т. е. соответствует игральной кости с бесконечным множеством граней), статья 1965 года показывает, что для плотного подмножества априорных значений теорема Бернштейна-фон Мизеса неприменима. В этом случае асимптотическая сходимость почти наверняка отсутствует. Позже, в 1980-х и 1990-х годах Фридман и Перси Диаконис продолжили работу над случаем бесконечных счетных вероятностных пространств. [10] Подводя итог, можно сказать, что испытаний может быть недостаточно, чтобы подавить эффекты первоначального выбора, и особенно для больших (но конечных) систем сходимость может быть очень медленной.

Сопряженные априоры

В параметризованной форме часто предполагается, что априорное распределение происходит из семейства распределений, называемых сопряженными априорными . Полезность сопряженного априорного распределения заключается в том, что соответствующее апостериорное распределение будет принадлежать тому же семейству, и расчет может быть выражен в закрытой форме .

Оценки параметров и прогнозы

Часто желательно использовать апостериорное распределение для оценки параметра или переменной. Несколько методов байесовской оценки выбирают измерения центральной тенденции из апостериорного распределения.

Для одномерных задач существует уникальная медиана для практических непрерывных задач. Задняя медиана привлекательна в качестве надежного средства оценки . [11]

Если существует конечное среднее апостериорное распределение, то апостериорное среднее является методом оценки. [12]

Принятие значения с наибольшей вероятностью определяет максимальные апостериорные оценки (MAP) : [13]

Существуют примеры, когда максимум не достигается, и в этом случае набор оценок MAP пуст .

Существуют и другие методы оценки, которые минимизируют апостериорный риск (ожидаемые апостериорные потери) по отношению к функции потерь , и они представляют интерес для статистической теории принятия решений с использованием выборочного распределения («частотная статистика»). [14]

Апостериорное прогнозируемое распределение нового наблюдения (независимое от предыдущих наблюдений) определяется по формуле [15]

Примеры

Вероятность гипотезы

Предположим, есть две полные тарелки печенья. В миске №1 находится 10 кусочков шоколада и 30 штук обычного печенья, а в миске №2 – по 20 штук каждого вида. Наш друг Фред наугад выбирает миску, а затем наугад выбирает печенье. Мы можем предположить, что нет никаких оснований полагать, что Фред обращается с одной миской по-разному, как и с печеньем. Печенье оказывается обычным. Насколько вероятно, что Фред вытащил его из миски №1?

Интуитивно кажется очевидным, что ответ должен быть больше половины, поскольку в миске №1 больше обычного печенья. Точный ответ даёт теорема Байеса. Пусть соответствует чаше №1 и чаше №2. Дано, что чаши идентичны с точки зрения Фреда, таким образом , и сумма двух должна составлять 1, поэтому обе равны 0,5. Событием является наблюдение обычного файла cookie. Из содержимого чаш мы это знаем, и тогда формула Байеса дает

До того, как мы рассмотрели печенье, вероятность, которую мы определили для Фреда, выбравшего миску № 1, была априорной вероятностью , которая составляла 0,5. После наблюдения за файлом cookie мы должны изменить вероятность на 0,6.

Делаем прогноз

Примеры результатов для примера археологии. Это моделирование было создано с использованием c = 15,2.

Археолог работает на месте, предположительно относящемся к средневековому периоду, между 11 и 16 веками. Однако неизвестно, когда именно в этот период это место было заселено. Обнаружены фрагменты керамики, часть из которых покрыта глазурью, а часть украшена. Ожидается, что если это место было заселено в период раннего средневековья, то 1% керамики будет покрыт глазурью, а 50% ее площади украшено, тогда как если бы оно было заселено в период позднего средневековья, то 81% будет покрыт глазурью и украшен. 5% его площади декорировано. Насколько уверен археолог может быть в дате заселения, если раскопать фрагменты?

Степень доверия к непрерывной переменной (веку) необходимо рассчитать, используя дискретный набор событий в качестве доказательства. Предполагая линейное изменение глазури и декора со временем и что эти переменные независимы,

Предположим, что априорное значение равно , а испытания независимы и одинаково распределены . Когда обнаруживается новый фрагмент типа , применяется теорема Байеса для обновления степени достоверности для каждого :

На графике показано компьютерное моделирование изменения убеждений после раскопок 50 фрагментов. Согласно моделированию, это место было заселено около 1420 года или около 1420 года . Подсчитав площадь под соответствующей частью графика для 50 испытаний, археолог может сказать, что вероятность того, что это место было заселено в 11 и 12 веках, практически отсутствует, вероятность того, что оно было заселено в 13 веке, составляет около 1%, 63 % шансов в 14 веке и 36% в 15 веке. Теорема Бернштейна -фон Мизеса утверждает здесь асимптотическую сходимость к «истинному» распределению, поскольку вероятностное пространство , соответствующее дискретному набору событий, конечно (см. раздел об асимптотическом поведении апостериорного события выше).

В частотной статистике и теории принятия решений

Теоретико -решательное обоснование использования байесовского вывода было дано Абрахамом Вальдом , который доказал, что любая уникальная байесовская процедура допустима . И наоборот, каждая допустимая статистическая процедура является либо байесовской процедурой, либо пределом байесовских процедур. [16]

Уолд охарактеризовал допустимые процедуры как байесовские процедуры (и пределы байесовских процедур), сделав байесовский формализм центральным методом в таких областях частотного вывода , как оценка параметров , проверка гипотез и вычисление доверительных интервалов . [17] [18] [19] Например:

Выбор модели

Байесовская методология также играет роль при выборе модели, цель которой состоит в том, чтобы выбрать одну модель из набора конкурирующих моделей, которая наиболее точно представляет основной процесс, в результате которого были получены наблюдаемые данные. При сравнении байесовских моделей выбирается модель с наибольшей апостериорной вероятностью с учетом данных. Апостериорная вероятность модели зависит от доказательств, или предельного правдоподобия , которое отражает вероятность того, что данные генерируются моделью, а также от априорного убеждения модели. Когда две конкурирующие модели априори считаются равновероятными, отношение их апостериорных вероятностей соответствует фактору Байеса . Поскольку сравнение байесовских моделей направлено на выбор модели с наибольшей апостериорной вероятностью, эту методологию также называют правилом максимального апостериорного выбора (MAP) [24] или правилом вероятности MAP. [25]

Вероятностное программирование

Хотя концептуально байесовские методы просты, они могут быть математически и численно сложными. Языки вероятностного программирования (PPL) реализуют функции, позволяющие легко создавать байесовские модели вместе с эффективными методами автоматического вывода. Это помогает отделить построение модели от вывода, позволяя специалистам-практикам сосредоточиться на своих конкретных проблемах и предоставляя PPL возможность выполнять за них вычислительные детали. [26] [27] [28]

Приложения

Статистический анализ данных

См. отдельную запись в Википедии о байесовской статистике , в частности раздел статистического моделирования на этой странице.

Компьютерные приложения

Байесовский вывод находит применение в искусственном интеллекте и экспертных системах . Методы байесовского вывода являются фундаментальной частью компьютеризированных методов распознавания образов с конца 1950-х годов. [29] Существует также постоянно растущая связь между байесовскими методами и методами Монте-Карло , основанными на моделировании , поскольку сложные модели не могут быть обработаны в закрытой форме с помощью байесовского анализа, в то время как графическая структура модели может позволить использовать эффективные алгоритмы моделирования, такие как выборка Гиббса . и другие схемы алгоритмов Метрополиса – Гастингса . [30] Недавно [ когда? ] По этим причинам байесовский вывод приобрел популярность среди филогенетического сообщества; ряд приложений позволяют одновременно оценивать множество демографических и эволюционных параметров.

Применительно к статистической классификации байесовский вывод использовался для разработки алгоритмов выявления спама в электронной почте . Приложения, использующие байесовский вывод для фильтрации спама, включают CRM114 , DSPAM, Bogofilter , SpamAssassin , SpamBayes , Mozilla , XEAMS и другие. Классификация спама более подробно рассматривается в статье о наивном байесовском классификаторе .

Индуктивный вывод Соломонова — это теория предсказания, основанная на наблюдениях; например, предсказание следующего символа на основе заданной серии символов. Единственное предположение состоит в том, что окружающая среда подчиняется некоторому неизвестному, но вычислимому распределению вероятностей . Это формальная индуктивная структура, сочетающая в себе два хорошо изученных принципа индуктивного вывода: байесовскую статистику и бритву Оккама . [31] [ ненадежный источник? ] Универсальная априорная вероятность Соломонова любого префикса p вычислимой последовательности x представляет собой сумму вероятностей всех программ (для универсального компьютера), которые вычисляют что-то, начиная с p . Учитывая некоторое p и любое вычислимое, но неизвестное распределение вероятностей, из которого выбрано x , универсальную априорную теорему и теорему Байеса можно использовать для оптимального предсказания еще невидимых частей x . [32] [33]

Биоинформатика и приложения для здравоохранения

Байесовский вывод применялся в различных приложениях биоинформатики , включая анализ дифференциальной экспрессии генов. [34] Байесовский вывод также используется в общей модели риска рака, называемой CIRI (постоянный индивидуальный индекс риска), где последовательные измерения включаются для обновления байесовской модели, которая в основном построена на основе предварительных знаний. [35] [36]

В зале суда

Байесовский вывод может использоваться присяжными заседателями для последовательного накопления доказательств за и против обвиняемого, а также для проверки того, соответствуют ли они в совокупности их личному порогу «вне разумного сомнения ». [37] [38] [39] Теорема Байеса последовательно применяется ко всем представленным доказательствам, при этом апостериорные данные одного этапа становятся априорными для следующего. Преимущество байесовского подхода состоит в том, что он дает присяжным беспристрастный и рациональный механизм объединения доказательств. Возможно, было бы уместно объяснить присяжным заседателям теорему Байеса в форме коэффициентов , поскольку коэффициенты ставок понимаются более широко, чем вероятности. В качестве альтернативы присяжным может быть проще использовать логарифмический подход , заменяющий умножение сложением.

Добавление доказательств.

Если существование преступления не подвергается сомнению, а только личность преступника, было предложено, чтобы предварительная информация была единой для подпадающей под определение группы населения. [40] Например, если бы преступление могли совершить 1000 человек, априорная вероятность вины была бы 1/1000.

Использование присяжными теоремы Байеса вызывает споры. В Соединенном Королевстве свидетель-эксперт защиты объяснил теорему Байеса присяжным по делу Р против Адамса . Присяжные признали виновным, но дело было передано в апелляцию на том основании, что присяжным, не желавшим использовать теорему Байеса, не было предоставлено никаких средств сбора доказательств. Апелляционный суд оставил приговор в силе, но также высказал мнение, что «введение теоремы Байеса или любого подобного метода в уголовный процесс погружает присяжных в неуместные и ненужные области теории и сложности, отвлекая их от их основной задачи». ."

Гарднер-Медвин [41] утверждает, что критерием, на котором должен основываться приговор в уголовном процессе, является не вероятность вины, а скорее вероятность наличия доказательств при условии, что обвиняемый невиновен (сродни частотному p-значению ). Он утверждает, что если апостериорную вероятность вины нужно вычислить по теореме Байеса, необходимо знать априорную вероятность вины. Это будет зависеть от частоты совершения преступления, что является необычным доказательством, которое следует учитывать в уголовном процессе. Рассмотрим следующие три предложения:

Гарднер-Медвин утверждает, что присяжные должны верить как А, так и не-Б, чтобы вынести обвинительный приговор. А и не-В подразумевают истинность С, но обратное неверно. Возможно, что B и C верны, но в этом случае он утверждает, что присяжные должны оправдать, хотя они знают, что отпустят некоторых виновных на свободу. См. также парадокс Линдли .

Байесовская эпистемология

Байесианская эпистемология — это движение, которое выступает за байесовский вывод как средство обоснования правил индуктивной логики.

Карл Поппер и Дэвид Миллер отвергли идею байесовского рационализма, т.е. использования правила Байеса для эпистемологических выводов: [42] Она подвержена тому же порочному кругу , что и любая другая джастификационистская эпистемология, поскольку она предполагает то, что пытается оправдать. Согласно этой точке зрения, рациональная интерпретация байесовского вывода будет рассматривать его просто как вероятностную версию фальсификации , отвергая распространенное среди байесовцев убеждение, что высокая вероятность, достигнутая серией байесовских обновлений, докажет гипотезу вне всякого разумного сомнения. или даже с вероятностью больше 0.

Другой

Байес и байесовский вывод

Проблема, рассмотренная Байесом в предложении 9 его эссе « Очерк решения проблемы доктрины шансов », представляет собой апостериорное распределение параметра a (степень успеха) биномиального распределения . [ нужна цитата ]

История

Термин «байесовский» относится к Томасу Байесу (1701–1761), который доказал, что на неизвестное событие можно наложить вероятностные ограничения. [ нужна цитата ] Однако именно Пьер-Симон Лаплас (1749–1827) ввел (как принцип VI) то, что сейчас называется теоремой Байеса , и использовал его для решения проблем в небесной механике , медицинской статистике, надежности и юриспруденции . [50] Ранний байесовский вывод, в котором использовались единые априорные данные в соответствии с принципом недостаточного основания Лапласа , назывался « обратной вероятностью » (потому что он делает выводы в обратном направлении от наблюдений к параметрам или от эффектов к причинам [51] ). После 1920-х годов «обратная вероятность» была в значительной степени вытеснена набором методов, которые стали называть частотной статистикой . [51]

В XX веке идеи Лапласа получили дальнейшее развитие в двух разных направлениях, породив объективные и субъективные течения в байесовской практике. В объективном или «неинформативном» потоке статистический анализ зависит только от предполагаемой модели, анализируемых данных [52] и метода присвоения априора, который отличается от одного объективного байесовского практика к другому. В субъективном или «информативном» потоке спецификация априора зависит от убеждения (то есть предположений, на основе которых готов действовать анализ), которые могут обобщать информацию от экспертов, предыдущих исследований и т. д.

В 1980-е годы произошел резкий рост исследований и применений байесовских методов, в основном связанный с открытием методов Монте-Карло на основе цепей Маркова , которые устранили многие вычислительные проблемы, а также растущим интересом к нестандартным и сложным приложениям. [53] Несмотря на рост байесовских исследований, большая часть преподавания на бакалавриате по-прежнему основана на частотной статистике. [54] Тем не менее, байесовские методы широко распространены и используются, например, в области машинного обучения . [55]

Смотрите также

Рекомендации

Цитаты

  1. ^ «Байесовский». Словарь Merriam-Webster.com .
  2. ^ Хакерство, Ян (декабрь 1967 г.). «Немного более реалистичная личная вероятность». Философия науки . 34 (4): 316. дои : 10.1086/288169. S2CID  14344339.
  3. ^ «Теорема Байеса (Стэнфордская энциклопедия философии)» . Plato.stanford.edu . Проверено 5 января 2014 г.
  4. ^ ван Фраассен, Б. (1989) Законы и симметрия , Oxford University Press. ISBN 0-19-824860-1
  5. ^ Гельман, Эндрю; Карлин, Джон Б.; Стерн, Хэл С.; Дансон, Дэвид Б.; Вехтари, Аки; Рубин, Дональд Б. (2013). Байесовский анализ данных , третье издание. Чепмен и Холл/CRC. ISBN 978-1-4398-4095-5
  6. ^ де Карвальо, Мигель; Пейдж, Гэрритт; Барни, Брэдли (2019). «О геометрии байесовского вывода» (PDF) . Байесовский анализ . 14 (4): 1013–1036. дои : 10.1214/18-BA1112. S2CID  88521802.
  7. ^ Ли, Се Юн (2021). «Сэмплер Гиббса и вариационный вывод по координатному восхождению: теоретико-множественный обзор». Коммуникации в статистике – теория и методы . 51 (6): 1549–1568. arXiv : 2008.01006 . дои : 10.1080/03610926.2021.1921214. S2CID  220935477.
  8. ^ Фридман, Д.А. (1963). «Об асимптотическом поведении байесовских оценок в дискретном случае». Анналы математической статистики . 34 (4): 1386–1403. дои : 10.1214/aoms/1177703871 . JSTOR  2238346.
  9. ^ Фридман, Д.А. (1965). «Об асимптотическом поведении байесовских оценок в дискретном случае II». Анналы математической статистики . 36 (2): 454–456. дои : 10.1214/aoms/1177700155 . JSTOR  2238150.
  10. ^ Робинс, Джеймс; Вассерман, Ларри (2000). «Обусловленность, вероятность и согласованность: обзор некоторых основополагающих концепций». Журнал Американской статистической ассоциации . 95 (452): 1340–1346. дои : 10.1080/01621459.2000.10474344. S2CID  120767108.
  11. ^ Сен, Пранаб К .; Китинг, JP; Мейсон, Р.Л. (1993). Мера близости Питмана: сравнение статистических оценок . Филадельфия: СИАМ.
  12. ^ Чоудхури, Нидхан; Госал, Субхаши; Рой, Аниндья (1 января 2005 г.). «Байесовские методы оценки функций». Справочник по статистике . Байесовское мышление. Том. 25. С. 373–414. CiteSeerX 10.1.1.324.3052 . дои : 10.1016/s0169-7161(05)25013-7. ISBN  9780444515391.
  13. ^ «Максимальная апостериорная оценка (MAP)» . www.probabilitycourse.com . Проверено 2 июня 2017 г.
  14. ^ Ю, Анжела. «Введение в байесовскую теорию принятия решений» (PDF) . cogsci.ucsd.edu/ . Архивировано из оригинала (PDF) 28 февраля 2013 г.
  15. ^ Хичкок, Дэвид. «Слайд статистики заднего прогнозируемого распределения» (PDF) . stat.sc.edu .
  16. ^ аб Бикель и Доксум (2001, стр. 32)
  17. ^ Кифер, Дж .; Шварц Р. (1965). «Допустимый байесовский характер T2-, R2- и других полностью инвариантных тестов для многомерных нормальных задач». Анналы математической статистики . 36 (3): 747–770. дои : 10.1214/aoms/1177700051 .
  18. ^ Шварц, Р. (1969). «Инвариантные правильные байесовские тесты для экспоненциальных семейств». Анналы математической статистики . 40 : 270–283. дои : 10.1214/aoms/1177697822 .
  19. ^ Хван, Дж. Т. и Казелла, Джордж (1982). «Минимаксные доверительные наборы для среднего многомерного нормального распределения» (PDF) . Анналы статистики . 10 (3): 868–881. дои : 10.1214/aos/1176345877 .
  20. ^ Леманн, Эрих (1986). Проверка статистических гипотез (второе изд.).(см. стр. 309 главы 6.7 «Приемлемость» и стр. 17–18 главы 1.8 «Полные классы»
  21. ^ Ле Кам, Люсьен (1986). Асимптотические методы в статистической теории принятия решений . Спрингер-Верлаг. ISBN 978-0-387-96307-5.(Из «Главы 12 Апостериорные распределения и байесовские решения», стр. 324)
  22. ^ Кокс, Д.Р .; Хинкли, Д.В. (1974). Теоретическая статистика . Чепмен и Холл. п. 432. ИСБН 978-0-04-121537-3.
  23. ^ Кокс, Д.Р .; Хинкли, Д.В. (1974). Теоретическая статистика . Чепмен и Холл. п. 433. ИСБН 978-0-04-121537-3.)
  24. ^ Стойка, П.; Селен, Ю. (2004). «Обзор правил информационных критериев». Журнал обработки сигналов IEEE . 21 (4): 36–47. дои : 10.1109/MSP.2004.1311138. S2CID  17338979.
  25. ^ Фатерманс, Дж.; Ван Аэрт, С.; ден Деккер, AJ (2019). «Правило максимальной апостериорной вероятности для обнаружения столбцов атомов на изображениях HADF STEM». Ультрамикроскопия . 201 : 81–91. arXiv : 1902.05809 . doi :10.1016/j.ultramic.2019.02.003. PMID  30991277. S2CID  104419861.
  26. ^ Бессьер П., Мазер Э., Ауактзин Дж. М. и Мехнача К. (2013). Байесовское программирование (1 издание) Чепмен и Холл/CRC.
  27. ^ Дэниел Рой (2015). «Вероятностное программирование». Вероятностное программирование.org . Архивировано из оригинала 10 января 2016 г. Проверено 02 января 2020 г.
  28. ^ Гахрамани, Z (2015). «Вероятностное машинное обучение и искусственный интеллект». Природа . 521 (7553): 452–459. Бибкод : 2015Natur.521..452G. дои : 10.1038/nature14541. PMID  26017444. S2CID  216356.
  29. ^ Финберг, Стивен Э. (1 марта 2006 г.). «Когда байесовский вывод стал «байесовским»?». Байесовский анализ . 1 (1). дои : 10.1214/06-BA101 .
  30. ^ Джим Альберт (2009). Байесовские вычисления с R, второе издание . Нью-Йорк, Дордрехт и др.: Springer. ISBN 978-0-387-92297-3.
  31. ^ Ратманнер, Сэмюэл; Хаттер, Маркус; Ормерод, Томас С. (2011). «Философский трактат универсальной индукции». Энтропия . 13 (6): 1076–1136. arXiv : 1105.5721 . Бибкод : 2011Entrp..13.1076R. дои : 10.3390/e13061076 . S2CID  2499910.
  32. ^ Хаттер, Маркус; Хэ, Ян-Хуэй; Ормерод, Томас С. (2007). «Об универсальном предсказании и байесовском подтверждении». Теоретическая информатика . 384 (2007): 33–48. arXiv : 0709.1516 . Бибкод : 2007arXiv0709.1516H. дои : 10.1016/j.tcs.2007.05.016. S2CID  1500830.
  33. ^ Гач, Питер; Витаньи, Пол МБ (2 декабря 2010 г.). «Раймонд Дж. Соломонов 1926–2009». CiteSeerX 10.1.1.186.8268 . 
  34. ^ Робинсон, Марк Д. и Маккарти, Дэвис Дж. и Смит, Гордон К. EdgeR: пакет Bioconductor для анализа дифференциальной экспрессии цифровых данных об экспрессии генов, Биоинформатика.
  35. ^ "ЦИРИ". ciri.stanford.edu . Проверено 11 августа 2019 г.
  36. ^ Курц, Дэвид М.; Исфахани, Мохаммад С.; Шерер, Флориан; Су, Джоанна; Джин, Майкл С.; Лю, Чи Лун; Ньюман, Аарон М.; Дюрсен, Ульрих; Хюттманн, Андреас (25 июля 2019 г.). «Динамическое профилирование рисков с использованием серийных биомаркеров опухолей для персонализированного прогнозирования результатов». Клетка . 178 (3): 699–713.e19. дои : 10.1016/j.cell.2019.06.011 . ISSN  1097-4172. ПМК 7380118 . ПМИД  31280963. 
  37. ^ Дэвид, А.П. и Мортера, Дж. (1996) «Последовательный анализ доказательств судебно-медицинской экспертизы». Журнал Королевского статистического общества , серия B, 58, 425–443.
  38. ^ Форман, Лос-Анджелес; Смит, AFM, и Эветт, IW (1997). «Байесовский анализ данных профиля дезоксирибонуклеиновой кислоты в приложениях судебно-медицинской идентификации (с обсуждением)». Журнал Королевского статистического общества , серия A, 160, 429–469.
  39. ^ Робертсон, Б. и Виньо, Джорджия (1995) Интерпретация доказательств: оценка судебной экспертизы в зале суда . Джон Уайли и сыновья. Чичестер. ISBN 978-0-471-96026-3 
  40. ^ Дэвид, AP (2001) Теорема Байеса и взвешивание доказательств присяжными. Архивировано 1 июля 2015 г. в Wayback Machine.
  41. ^ Гарднер-Медвин, А. (2005) «Какую вероятность следует рассмотреть присяжным?». Значение , 2 (1), март 2005 г.
  42. ^ Миллер, Дэвид (1994). Критический рационализм. Чикаго: Открытый суд. ISBN 978-0-8126-9197-9.
  43. ^ Хаусон и Урбах (2005), Джейнс (2003)
  44. ^ Цай, XQ; Ву, XY; Чжоу, X. (2009). «Стохастическое планирование с учетом повторяющихся пробоев с неполной информацией». Исследование операций . 57 (5): 1236–1249. дои : 10.1287/opre.1080.0660.
  45. ^ Огл, Киона; Такер, Колин; Кейбл, Джессика М. (01 января 2014 г.). «Помимо простых моделей линейного смешивания: изотопное разделение экологических процессов на основе процессов». Экологические приложения . 24 (1): 181–195. дои : 10.1890/1051-0761-24.1.181. ISSN  1939-5582. ПМИД  24640543.
  46. ^ Эваристо, Хайвиме; Макдоннелл, Джеффри Дж.; Шолль, Марта А.; Брейнзель, Л. Адриан; Чун, Квок П. (01 января 2016 г.). «Изучение потребления воды растениями на основе измерений изотопов ксилемной воды в двух тропических водосборных бассейнах с контрастными условиями влажности». Гидрологические процессы . 30 (18): 3210–3227. Бибкод : 2016HyPr...30.3210E. дои : 10.1002/hyp.10841. ISSN  1099-1085. S2CID  131588159.
  47. ^ Гупта, Анкур; Роулингс, Джеймс Б. (апрель 2014 г.). «Сравнение методов оценки параметров в стохастических химико-кинетических моделях: примеры системной биологии». Журнал Айше . 60 (4): 1253–1268. Бибкод :2014АИЧЕ..60.1253Г. дои : 10.1002/aic.14409. ISSN  0001-1541. ПМЦ 4946376 . ПМИД  27429455. 
  48. ^ Форнальски, KW (2016). «Байесовская модель головастика для обнаружения трендовых изменений финансовых котировок» (PDF) . R&R Журнал статистики и математических наук . 2 (1): 117–122.
  49. ^ Шютц, Н.; Холшнайдер, М. (2011). «Обнаружение изменений тренда во временных рядах с использованием байесовского вывода». Физический обзор E . 84 (2): 021120. arXiv : 1104.3448 . Бибкод : 2011PhRvE..84b1120S. doi : 10.1103/PhysRevE.84.021120. PMID  21928962. S2CID  11460968.
  50. ^ Стиглер, Стивен М. (1986). "Глава 3" . История статистики . Издательство Гарвардского университета. ISBN 9780674403406.
  51. ^ ab Fienberg, Стивен Э. (2006). «Когда байесовский вывод стал «байесовским»?». Байесовский анализ . 1 (1): 1–40 [с. 5]. дои : 10.1214/06-ba101 .
  52. ^ Бернардо, Хосе-Мигель (2005). «Справочный анализ». Справочник статистики . Том. 25. стр. 17–90.
  53. ^ Вулперт, RL (2004). «Разговор с Джеймсом О. Бергером». Статистическая наука . 19 (1): 205–218. CiteSeerX 10.1.1.71.6112 . дои : 10.1214/088342304000000053. MR  2082155. S2CID  120094454. 
  54. ^ Бернардо, Хосе М. (2006). «Букварь по байесовской математической статистике» (PDF) . Икотс-7 .
  55. ^ Бишоп, CM (2007). Распознавание образов и машинное обучение . Нью-Йорк: Спрингер. ISBN 978-0387310732.

Источники

дальнейшее чтение

элементарный

Следующие книги перечислены в порядке возрастания вероятностной сложности:

Средний или продвинутый

Внешние ссылки