обозначает любую гипотезу , на вероятность которой могут повлиять данные ( ниже называемые доказательствами ). Часто существуют конкурирующие гипотезы, и задача состоит в том, чтобы определить, какая из них наиболее вероятна.
, априорная вероятность , является оценкой вероятности гипотезы до того, как данные , текущие доказательства, будут наблюдаться.
, свидетельство , соответствует новым данным, которые не использовались при вычислении априорной вероятности.
, апостериорная вероятность , является вероятностью данного , т. е. после того, как наблюдается. Вот что мы хотим знать: вероятность гипотезы с учетом наблюдаемых данных.
это вероятность наблюдения данного и называется правдоподобием . Как функция при фиксированном, он указывает на совместимость доказательств с данной гипотезой. Функция правдоподобия является функцией свидетельства, тогда как апостериорная вероятность является функцией гипотезы .
иногда называют предельной вероятностью или «модельным доказательством». Этот фактор одинаков для всех возможных рассматриваемых гипотез (о чем свидетельствует тот факт, что гипотеза не появляется нигде в символе, в отличие от всех других факторов) и, следовательно, не участвует в определении относительных вероятностей различных гипотез.
(Иначе есть .)
Для разных значений только факторы и , оба в числителе, влияют на значение – апостериорная вероятность гипотезы пропорциональна ее априорной вероятности (присущей ей правдоподобности) и вновь полученному правдоподобию (ее совместимости с новыми наблюдаемыми доказательствами). ).
В случаях, когда («не »), логическое отрицание , является допустимой вероятностью, правило Байеса можно переписать следующим образом:
Один из быстрых и простых способов запомнить уравнение — использовать правило умножения :
Альтернативы байесовскому обновлению
Байесовское обновление широко используется и удобно в вычислительном отношении. Однако это не единственное правило обновления, которое можно считать рациональным.
Ян Хакинг отметил, что традиционные аргументы « голландской книги » не определяют байесовское обновление: они оставляют открытой возможность того, что небайесовские правила обновления могут избежать голландских книг. Хакинг писал: [2] «И ни аргумент голландской книги, ни какой-либо другой из персоналистского арсенала доказательств аксиом вероятности не влечет за собой динамическое предположение. Ни один из них не влечет за собой байесианство. Таким образом, персоналист требует, чтобы динамическое предположение было байесовским. Это правда что в целях последовательности персоналист может отказаться от байесовской модели обучения на опыте. Соль может потерять свою силу».
Действительно, существуют небайесовские правила обновления, которые также избегают голландских книг (как обсуждалось в литературе по « кинематике вероятности ») после публикации правила Ричарда К. Джеффри , которое применяет правило Байеса к случаю, когда сами доказательства присваивается вероятность. [3] Дополнительные гипотезы, необходимые для однозначного требования байесовского обновления, считаются существенными, сложными и неудовлетворительными. [4]
Вывод об исключительных и исчерпывающих возможностях
Если доказательства одновременно используются для обновления убеждений по поводу набора исключительных и исчерпывающих предложений, байесовский вывод можно рассматривать как воздействующий на это распределение убеждений в целом.
Общая формулировка
Предположим, что процесс генерирует независимые и одинаково распределенные события , но распределение вероятностей неизвестно. Пусть пространство событий представляет текущее состояние уверенности в этом процессе. Каждая модель представлена событием . Условные вероятности указаны для определения моделей. это степень веры в . Перед первым шагом вывода находится набор начальных априорных вероятностей . Их сумма должна быть равна 1, но в остальном они произвольны.
Предположим, что наблюдается процесс генерации . Для каждого предшествующий обновляется до последующего . Из теоремы Байеса : [5]
При обнаружении дополнительных доказательств эту процедуру можно повторить.
Множественные наблюдения
Для последовательности независимых и одинаково распределенных наблюдений можно с помощью индукции показать, что повторное применение вышеизложенного эквивалентно
Параметрическая формулировка: мотивация формального описания
Путем параметризации пространства моделей доверие ко всем моделям можно обновить за один шаг. Тогда распределение убеждений по пространству модели можно рассматривать как распределение убеждений по пространству параметров. Распределения в этом разделе выражены как непрерывные и представлены плотностями вероятности, поскольку это обычная ситуация. Однако этот метод в равной степени применим и к дискретным распределениям.
, точка данных в целом. На самом деле это может быть вектор значений.
, параметр распределения точек данных, т.е. Это может быть вектор параметров.
, гиперпараметр распределения параметров, т. е. . Это может быть вектор гиперпараметров.
– это выборка, набор наблюдаемых точек данных, т. е. .
, новая точка данных, распределение которой необходимо спрогнозировать.
Байесовский вывод
Априорное распределение – это распределение параметра(ов) до того, как наблюдаются какие-либо данные, т.е. Априорное распределение может быть нелегко определить; в таком случае одной из возможностей может быть использование Джеффриса до получения предварительного распределения перед обновлением его новыми наблюдениями.
Выборочное распределение – это распределение наблюдаемых данных, обусловленное его параметрами, т.е. Это также называется вероятностью , особенно если рассматривать ее как функцию параметра(ов), иногда записываемую как .
Предельное правдоподобие (иногда называемое также доказательством ) представляет собой распределение наблюдаемых данных, маргинализированных по параметру(ам), т.е.
Он количественно определяет соответствие между данными и мнением экспертов в геометрическом смысле, который можно уточнить. [6] Если предельная вероятность равна 0, то между данными и мнением экспертов нет согласия, и правило Байеса не может быть применено.
Апостериорное распределение — это распределение параметра(ов) после учета наблюдаемых данных. Это определяется правилом Байеса , которое составляет суть байесовского вывода:
Это выражается словами: «апостериорная вероятность пропорциональна предшествующему числу правдоподобия» или иногда как «апостериорное значение = предшествующему числу правдоподобия, сверх очевидности».
На практике почти для всех сложных байесовских моделей, используемых в машинном обучении, апостериорное распределение не получается в виде распределения в замкнутой форме, главным образом потому, что пространство параметров для может быть очень большим или байесовская модель сохраняет определенную иерархическую структуру, сформулированную на основе наблюдений и параметр . В таких ситуациях приходится прибегать к методам аппроксимации. [7]
Байесовское предсказание
Апостериорное прогнозирующее распределение — это распределение новой точки данных, маргинализованной по апостериорному:
Априорное прогнозируемое распределение — это распределение новой точки данных, маргинализованной по сравнению с предыдущей:
Байесовская теория призывает использовать апостериорное прогнозируемое распределение для прогнозирования , то есть для прогнозирования распределения новой, ненаблюдаемой точки данных. То есть вместо фиксированной точки в качестве прогноза возвращается распределение по возможным точкам. Только таким образом используется все апостериорное распределение параметра(ов). Для сравнения, прогнозирование в частотной статистике часто включает в себя поиск оптимальной точечной оценки параметра(ов) — например, по максимальному правдоподобию или максимальной апостериорной оценке (MAP) — а затем включение этой оценки в формулу для распределения точки данных. . Недостатком этого подхода является то, что он не учитывает никакой неопределенности в значении параметра и, следовательно, приводит к недооценке дисперсии прогнозируемого распределения.
В некоторых случаях частотная статистика может обойти эту проблему. Например, доверительные интервалы и интервалы прогнозирования в частотной статистике, построенные на основе нормального распределения с неизвестными средним значением и дисперсией , строятся с использованием t-распределения Стьюдента . Это правильно оценивает дисперсию благодаря тому факту, что (1) среднее значение нормально распределенных случайных величин также нормально распределено и (2) прогнозируемое распределение нормально распределенной точки данных с неизвестным средним значением и дисперсией с использованием сопряженных или неинформативных априорных значений. , имеет t-распределение Стьюдента. Однако в байесовской статистике апостериорное прогнозируемое распределение всегда можно определить точно — или, по крайней мере, с произвольным уровнем точности при использовании численных методов.
Оба типа прогнозных распределений имеют форму сложного распределения вероятностей (как и предельное правдоподобие ). Фактически, если априорное распределение является сопряженным априорным , так что априорное и апостериорное распределения происходят из одного и того же семейства, можно видеть, что и априорное, и апостериорное прогнозирующие распределения также происходят из одного и того же семейства составных распределений. Единственное отличие состоит в том, что апостериорное прогнозирующее распределение использует обновленные значения гиперпараметров (применяя байесовские правила обновления, приведенные в сопряженной предыдущей статье), тогда как априорное прогнозирующее распределение использует значения гиперпараметров, которые появляются в предыдущем распределении.
Математические свойства
Интерпретация фактора
. То есть, если бы модель была верной, доказательства были бы более вероятными, чем предсказывается текущим состоянием убеждений. Обратное справедливо для уменьшения веры. Если убеждение не изменится, . То есть доказательства не зависят от модели. Если бы модель была верной, доказательства были бы точно такими же вероятными, как предсказывается текущим состоянием убеждений.
Правило Кромвеля
Если тогда . Если и , то . Это можно интерпретировать как означающее, что твердые убеждения нечувствительны к контрдоказательствам.
Первое следует непосредственно из теоремы Байеса. Последнее можно получить, применив первое правило к событию «не » вместо « », получая «если , то », из которого немедленно следует результат.
Асимптотическое поведение задней
Рассмотрим поведение распределения убеждений, когда оно обновляется большое количество раз с помощью независимых и одинаково распределенных испытаний. Для достаточно хороших априорных вероятностей теорема Бернштейна-фон Мизеса показывает, что в пределе бесконечных испытаний апостериорное распределение сходится к гауссовскому распределению , независимому от начального априора, при некоторых условиях, впервые изложенных и строго доказанных Джозефом Л. Дубом в 1948 году, а именно: если рассматриваемая случайная величина имеет конечное вероятностное пространство . Более общие результаты были получены позже статистиком Дэвидом А. Фридманом , который опубликовал две плодотворные исследовательские статьи в 1963 [8] и 1965 [9] о том, когда и при каких обстоятельствах гарантируется асимптотическое поведение апостериорной функции. В его статье 1963 года, как и у Дуба (1949), рассматривается конечный случай, и он приходит к удовлетворительному выводу. Однако, если случайная величина имеет бесконечное, но счетное вероятностное пространство (т. е. соответствует игральной кости с бесконечным множеством граней), статья 1965 года показывает, что для плотного подмножества априорных значений теорема Бернштейна-фон Мизеса неприменима. В этом случае асимптотическая сходимость почти наверняка отсутствует. Позже, в 1980-х и 1990-х годах Фридман и Перси Диаконис продолжили работу над случаем бесконечных счетных вероятностных пространств. [10] Подводя итог, можно сказать, что испытаний может быть недостаточно, чтобы подавить эффекты первоначального выбора, и особенно для больших (но конечных) систем сходимость может быть очень медленной.
Сопряженные априоры
В параметризованной форме часто предполагается, что априорное распределение происходит из семейства распределений, называемых сопряженными априорными . Полезность сопряженного априорного распределения заключается в том, что соответствующее апостериорное распределение будет принадлежать тому же семейству, и расчет может быть выражен в закрытой форме .
Оценки параметров и прогнозы
Часто желательно использовать апостериорное распределение для оценки параметра или переменной. Несколько методов байесовской оценки выбирают измерения центральной тенденции из апостериорного распределения.
Для одномерных задач существует уникальная медиана для практических непрерывных задач. Задняя медиана привлекательна в качестве надежного средства оценки . [11]
Если существует конечное среднее апостериорное распределение, то апостериорное среднее является методом оценки. [12]
Существуют примеры, когда максимум не достигается, и в этом случае набор оценок MAP пуст .
Существуют и другие методы оценки, которые минимизируют апостериорный риск (ожидаемые апостериорные потери) по отношению к функции потерь , и они представляют интерес для статистической теории принятия решений с использованием выборочного распределения («частотная статистика»). [14]
Апостериорное прогнозируемое распределение нового наблюдения (независимое от предыдущих наблюдений) определяется по формуле [15]
Примеры
Вероятность гипотезы
Предположим, есть две полные тарелки печенья. В миске №1 находится 10 кусочков шоколада и 30 штук обычного печенья, а в миске №2 – по 20 штук каждого вида. Наш друг Фред наугад выбирает миску, а затем наугад выбирает печенье. Мы можем предположить, что нет никаких оснований полагать, что Фред обращается с одной миской по-разному, как и с печеньем. Печенье оказывается обычным. Насколько вероятно, что Фред вытащил его из миски №1?
Интуитивно кажется очевидным, что ответ должен быть больше половины, поскольку в миске №1 больше обычного печенья. Точный ответ даёт теорема Байеса. Пусть соответствует чаше №1 и чаше №2. Дано, что чаши идентичны с точки зрения Фреда, таким образом , и сумма двух должна составлять 1, поэтому обе равны 0,5. Событием является наблюдение обычного файла cookie. Из содержимого чаш мы это знаем, и тогда формула Байеса дает
До того, как мы рассмотрели печенье, вероятность, которую мы определили для Фреда, выбравшего миску № 1, была априорной вероятностью , которая составляла 0,5. После наблюдения за файлом cookie мы должны изменить вероятность на 0,6.
Делаем прогноз
Археолог работает на месте, предположительно относящемся к средневековому периоду, между 11 и 16 веками. Однако неизвестно, когда именно в этот период это место было заселено. Обнаружены фрагменты керамики, часть из которых покрыта глазурью, а часть украшена. Ожидается, что если это место было заселено в период раннего средневековья, то 1% керамики будет покрыт глазурью, а 50% ее площади украшено, тогда как если бы оно было заселено в период позднего средневековья, то 81% будет покрыт глазурью и украшен. 5% его площади декорировано. Насколько уверен археолог может быть в дате заселения, если раскопать фрагменты?
Степень доверия к непрерывной переменной (веку) необходимо рассчитать, используя дискретный набор событий в качестве доказательства. Предполагая линейное изменение глазури и декора со временем и что эти переменные независимы,
Предположим, что априорное значение равно , а испытания независимы и одинаково распределены . Когда обнаруживается новый фрагмент типа , применяется теорема Байеса для обновления степени достоверности для каждого :
На графике показано компьютерное моделирование изменения убеждений после раскопок 50 фрагментов. Согласно моделированию, это место было заселено около 1420 года или около 1420 года . Подсчитав площадь под соответствующей частью графика для 50 испытаний, археолог может сказать, что вероятность того, что это место было заселено в 11 и 12 веках, практически отсутствует, вероятность того, что оно было заселено в 13 веке, составляет около 1%, 63 % шансов в 14 веке и 36% в 15 веке. Теорема Бернштейна -фон Мизеса утверждает здесь асимптотическую сходимость к «истинному» распределению, поскольку вероятностное пространство , соответствующее дискретному набору событий, конечно (см. раздел об асимптотическом поведении апостериорного события выше).
В частотной статистике и теории принятия решений
Теоретико -решательное обоснование использования байесовского вывода было дано Абрахамом Вальдом , который доказал, что любая уникальная байесовская процедура допустима . И наоборот, каждая допустимая статистическая процедура является либо байесовской процедурой, либо пределом байесовских процедур. [16]
«При некоторых условиях все допустимые процедуры являются либо байесовскими процедурами, либо пределами байесовских процедур (в различных смыслах). Эти замечательные результаты, по крайней мере в их первоначальной форме, в основном принадлежат Вальду. Они полезны, потому что свойство быть байесовскими есть легче анализировать, чем приемлемость». [16]
«В теории принятия решений довольно общий метод доказательства допустимости состоит в представлении процедуры как единственного байесовского решения». [20]
«В первых главах этой работы априорные распределения с конечным носителем и соответствующие байесовские процедуры использовались для установления некоторых основных теорем, касающихся сравнения экспериментов. Байесовские процедуры по отношению к более общим априорным распределениям сыграли очень важную роль в развитии статистики, включая ее асимптотическую теорию». «Существует множество задач, в которых взгляд на апостериорные распределения для подходящих априорных значений сразу же дает интересную информацию. Кроме того, этого метода вряд ли можно избежать в последовательном анализе». [21]
«Полезным фактом является то, что любое решающее правило Байеса, полученное путем принятия правильного априорного значения для всего пространства параметров, должно быть допустимым» [22]
«Важной областью исследований в развитии идей приемлемости были традиционные процедуры теории выборки, и было получено много интересных результатов». [23]
Выбор модели
Байесовская методология также играет роль при выборе модели, цель которой состоит в том, чтобы выбрать одну модель из набора конкурирующих моделей, которая наиболее точно представляет основной процесс, в результате которого были получены наблюдаемые данные. При сравнении байесовских моделей выбирается модель с наибольшей апостериорной вероятностью с учетом данных. Апостериорная вероятность модели зависит от доказательств, или предельного правдоподобия , которое отражает вероятность того, что данные генерируются моделью, а также от априорного убеждения модели. Когда две конкурирующие модели априори считаются равновероятными, отношение их апостериорных вероятностей соответствует фактору Байеса . Поскольку сравнение байесовских моделей направлено на выбор модели с наибольшей апостериорной вероятностью, эту методологию также называют правилом максимального апостериорного выбора (MAP) [24] или правилом вероятности MAP. [25]
Вероятностное программирование
Хотя концептуально байесовские методы просты, они могут быть математически и численно сложными. Языки вероятностного программирования (PPL) реализуют функции, позволяющие легко создавать байесовские модели вместе с эффективными методами автоматического вывода. Это помогает отделить построение модели от вывода, позволяя специалистам-практикам сосредоточиться на своих конкретных проблемах и предоставляя PPL возможность выполнять за них вычислительные детали. [26] [27] [28]
Байесовский вывод находит применение в искусственном интеллекте и экспертных системах . Методы байесовского вывода являются фундаментальной частью компьютеризированных методов распознавания образов с конца 1950-х годов. [29] Существует также постоянно растущая связь между байесовскими методами и методами Монте-Карло , основанными на моделировании , поскольку сложные модели не могут быть обработаны в закрытой форме с помощью байесовского анализа, в то время как графическая структура модели может позволить использовать эффективные алгоритмы моделирования, такие как выборка Гиббса . и другие схемы алгоритмов Метрополиса – Гастингса . [30] Недавно [ когда? ] По этим причинам байесовский вывод приобрел популярность среди филогенетического сообщества; ряд приложений позволяют одновременно оценивать множество демографических и эволюционных параметров.
Индуктивный вывод Соломонова — это теория предсказания, основанная на наблюдениях; например, предсказание следующего символа на основе заданной серии символов. Единственное предположение состоит в том, что окружающая среда подчиняется некоторому неизвестному, но вычислимому распределению вероятностей . Это формальная индуктивная структура, сочетающая в себе два хорошо изученных принципа индуктивного вывода: байесовскую статистику и бритву Оккама . [31] [ ненадежный источник? ] Универсальная априорная вероятность Соломонова любого префикса p вычислимой последовательности x представляет собой сумму вероятностей всех программ (для универсального компьютера), которые вычисляют что-то, начиная с p . Учитывая некоторое p и любое вычислимое, но неизвестное распределение вероятностей, из которого выбрано x , универсальную априорную теорему и теорему Байеса можно использовать для оптимального предсказания еще невидимых частей x . [32] [33]
Биоинформатика и приложения для здравоохранения
Байесовский вывод применялся в различных приложениях биоинформатики , включая анализ дифференциальной экспрессии генов. [34] Байесовский вывод также используется в общей модели риска рака, называемой CIRI (постоянный индивидуальный индекс риска), где последовательные измерения включаются для обновления байесовской модели, которая в основном построена на основе предварительных знаний. [35] [36]
В зале суда
Байесовский вывод может использоваться присяжными заседателями для последовательного накопления доказательств за и против обвиняемого, а также для проверки того, соответствуют ли они в совокупности их личному порогу «вне разумного сомнения ». [37] [38] [39] Теорема Байеса последовательно применяется ко всем представленным доказательствам, при этом апостериорные данные одного этапа становятся априорными для следующего. Преимущество байесовского подхода состоит в том, что он дает присяжным беспристрастный и рациональный механизм объединения доказательств. Возможно, было бы уместно объяснить присяжным теорему Байеса в форме коэффициентов , поскольку коэффициенты ставок понимаются более широко, чем вероятности. В качестве альтернативы присяжным может быть проще использовать логарифмический подход , заменяющий умножение сложением.
Если существование преступления не подвергается сомнению, а только личность преступника, было предложено, чтобы предварительная информация была единой для подпадающей под определение группы населения. [40] Например, если бы преступление могли совершить 1000 человек, априорная вероятность вины была бы 1/1000.
Использование присяжными теоремы Байеса вызывает споры. В Соединенном Королевстве свидетель-эксперт защиты объяснил теорему Байеса присяжным по делу Р против Адамса . Присяжные признали виновным, но дело было передано в апелляцию на том основании, что присяжным, не желавшим использовать теорему Байеса, не было предоставлено никаких средств сбора доказательств. Апелляционный суд оставил приговор в силе, но также высказал мнение, что «введение теоремы Байеса или любого подобного метода в уголовный процесс погружает присяжных в неуместные и ненужные области теории и сложности, отвлекая их от их основной задачи». ."
Гарднер-Медвин [41] утверждает, что критерием, на котором должен основываться приговор в уголовном процессе, является не вероятность вины, а скорее вероятность наличия доказательств при условии, что обвиняемый невиновен (сродни частотному p-значению ). Он утверждает, что если апостериорную вероятность вины нужно вычислить по теореме Байеса, необходимо знать априорную вероятность вины. Это будет зависеть от частоты совершения преступления, что является необычным доказательством, которое следует учитывать в уголовном процессе. Рассмотрим следующие три предложения:
A Известные факты и показания могли бы возникнуть, если бы подсудимый виновен.
B Известные факты и показания могли бы возникнуть, если бы обвиняемый невиновен.
C Подсудимый виновен.
Гарднер-Медвин утверждает, что присяжные должны верить как А, так и не-Б, чтобы вынести обвинительный приговор. А и не-В подразумевают истинность С, но обратное неверно. Возможно, что B и C верны, но в этом случае он утверждает, что присяжные должны оправдать, хотя они знают, что отпустят некоторых виновных на свободу. См. также парадокс Линдли .
Байесовская эпистемология
Байесианская эпистемология — это движение, которое выступает за байесовский вывод как средство обоснования правил индуктивной логики.
Карл Поппер и Дэвид Миллер отвергли идею байесовского рационализма, т.е. использования правила Байеса для эпистемологических выводов: [42] Она подвержена тому же порочному кругу , что и любая другая джастификационистская эпистемология, поскольку она предполагает то, что пытается оправдать. Согласно этой точке зрения, рациональная интерпретация байесовского вывода будет рассматривать его просто как вероятностную версию фальсификации , отвергая распространенное среди байесовцев убеждение, что высокая вероятность, достигнутая серией байесовских обновлений, докажет гипотезу вне всякого разумного сомнения. или даже с вероятностью больше 0.
Другой
Научный метод иногда интерпретируется как применение байесовского вывода. С этой точки зрения правило Байеса направляет (или должно руководить) обновлением вероятностей гипотез, обусловленных новыми наблюдениями или экспериментами . [43] Байесовский вывод также применялся для решения стохастических задач планирования с неполной информацией Cai et al. (2009). [44]
Термин «байесовский» относится к Томасу Байесу (1701–1761), который доказал, что на неизвестное событие можно наложить вероятностные ограничения. [ нужна цитата ] Однако именно Пьер-Симон Лаплас (1749–1827) ввел (как принцип VI) то, что сейчас называется теоремой Байеса , и использовал его для решения проблем в небесной механике , медицинской статистике, надежности и юриспруденции . [50] Ранний байесовский вывод, в котором использовались единые априорные данные в соответствии с принципом недостаточного основания Лапласа , назывался « обратной вероятностью » (потому что он делает выводы в обратном направлении от наблюдений к параметрам или от эффектов к причинам [51] ). После 1920-х годов «обратная вероятность» была в значительной степени вытеснена набором методов, которые стали называть частотной статистикой . [51]
В XX веке идеи Лапласа получили дальнейшее развитие в двух разных направлениях, породив объективные и субъективные течения в байесовской практике. В объективном или «неинформативном» потоке статистический анализ зависит только от предполагаемой модели, анализируемых данных [52] и метода присвоения априора, который отличается от одного объективного байесовского практика к другому. В субъективном или «информативном» потоке спецификация априора зависит от убеждения (то есть предположений, на основе которых готов действовать анализ), которые могут обобщать информацию от экспертов, предыдущих исследований и т. д.
В 1980-е годы произошел резкий рост исследований и применений байесовских методов, в основном связанный с открытием методов Монте-Карло на основе цепей Маркова , которые устранили многие вычислительные проблемы, а также растущим интересом к нестандартным и сложным приложениям. [53] Несмотря на рост байесовских исследований, большая часть преподавания на бакалавриате по-прежнему основана на частотной статистике. [54] Тем не менее, байесовские методы широко распространены и используются, например, в области машинного обучения . [55]
^ Хакерство, Ян (декабрь 1967 г.). «Немного более реалистичная личная вероятность». Философия науки . 34 (4): 316. дои : 10.1086/288169. S2CID 14344339.
^ «Теорема Байеса (Стэнфордская энциклопедия философии)» . Plato.stanford.edu . Проверено 5 января 2014 г.
^ Гельман, Эндрю; Карлин, Джон Б.; Стерн, Хэл С.; Дансон, Дэвид Б.; Вехтари, Аки; Рубин, Дональд Б. (2013). Байесовский анализ данных , третье издание. Чепмен и Холл/CRC. ISBN 978-1-4398-4095-5 .
^ де Карвальо, Мигель; Пейдж, Гэрритт; Барни, Брэдли (2019). «О геометрии байесовского вывода» (PDF) . Байесовский анализ . 14 (4): 1013–1036. дои : 10.1214/18-BA1112. S2CID 88521802.
^ Ли, Се Юн (2021). «Сэмплер Гиббса и вариационный вывод по координатному восхождению: теоретико-множественный обзор». Коммуникации в статистике – теория и методы . 51 (6): 1549–1568. arXiv : 2008.01006 . дои : 10.1080/03610926.2021.1921214. S2CID 220935477.
^ Кифер, Дж .; Шварц Р. (1965). «Допустимый байесовский характер T2-, R2- и других полностью инвариантных тестов для многомерных нормальных задач». Анналы математической статистики . 36 (3): 747–770. дои : 10.1214/aoms/1177700051 .
^ Шварц, Р. (1969). «Инвариантные правильные байесовские тесты для экспоненциальных семейств». Анналы математической статистики . 40 : 270–283. дои : 10.1214/aoms/1177697822 .
^ Хван, Дж. Т. и Казелла, Джордж (1982). «Минимаксные доверительные наборы для среднего многомерного нормального распределения» (PDF) . Анналы статистики . 10 (3): 868–881. дои : 10.1214/aos/1176345877 .
^ Леманн, Эрих (1986). Проверка статистических гипотез (второе изд.).(см. стр. 309 главы 6.7 «Приемлемость» и стр. 17–18 главы 1.8 «Полные классы»
^ Ле Кам, Люсьен (1986). Асимптотические методы в статистической теории принятия решений . Спрингер-Верлаг. ISBN978-0-387-96307-5.(Из «Главы 12 Апостериорные распределения и байесовские решения», стр. 324)
^ Кокс, Д.Р .; Хинкли, Д.В. (1974). Теоретическая статистика . Чепмен и Холл. п. 432. ИСБН978-0-04-121537-3.
^ Кокс, Д.Р .; Хинкли, Д.В. (1974). Теоретическая статистика . Чепмен и Холл. п. 433. ИСБН978-0-04-121537-3.)
^ Стойка, П.; Селен, Ю. (2004). «Обзор правил информационных критериев». Журнал обработки сигналов IEEE . 21 (4): 36–47. дои : 10.1109/MSP.2004.1311138. S2CID 17338979.
^ Фатерманс, Дж.; Ван Аэрт, С.; ден Деккер, AJ (2019). «Правило максимальной апостериорной вероятности для обнаружения столбцов атомов на изображениях HADF STEM». Ультрамикроскопия . 201 : 81–91. arXiv : 1902.05809 . doi :10.1016/j.ultramic.2019.02.003. PMID 30991277. S2CID 104419861.
^ Бессьер П., Мазер Э., Ауактзин Дж. М. и Мехнача К. (2013). Байесовское программирование (1 издание) Чепмен и Холл/CRC.
^ Дэниел Рой (2015). «Вероятностное программирование». Вероятностное программирование.org . Архивировано из оригинала 10 января 2016 г. Проверено 02 января 2020 г.
^ Гахрамани, Z (2015). «Вероятностное машинное обучение и искусственный интеллект». Природа . 521 (7553): 452–459. Бибкод : 2015Natur.521..452G. дои : 10.1038/nature14541. PMID 26017444. S2CID 216356.
^ Финберг, Стивен Э. (1 марта 2006 г.). «Когда байесовский вывод стал «байесовским»?». Байесовский анализ . 1 (1). дои : 10.1214/06-BA101 .
^ Джим Альберт (2009). Байесовские вычисления с R, второе издание . Нью-Йорк, Дордрехт и др.: Springer. ISBN978-0-387-92297-3.
^ Гач, Питер; Витаньи, Пол МБ (2 декабря 2010 г.). «Раймонд Дж. Соломонов 1926–2009». CiteSeerX 10.1.1.186.8268 .
^ Робинсон, Марк Д. и Маккарти, Дэвис Дж. и Смит, Гордон К. EdgeR: пакет Bioconductor для анализа дифференциальной экспрессии цифровых данных об экспрессии генов, Биоинформатика.
^ "ЦИРИ". ciri.stanford.edu . Проверено 11 августа 2019 г.
^ Курц, Дэвид М.; Исфахани, Мохаммад С.; Шерер, Флориан; Су, Джоанна; Джин, Майкл С.; Лю, Чи Лун; Ньюман, Аарон М.; Дюрсен, Ульрих; Хюттманн, Андреас (25 июля 2019 г.). «Динамическое профилирование рисков с использованием серийных биомаркеров опухолей для персонализированного прогнозирования результатов». Клетка . 178 (3): 699–713.e19. дои : 10.1016/j.cell.2019.06.011 . ISSN 1097-4172. ПМК 7380118 . ПМИД 31280963.
^ Дэвид, А.П. и Мортера, Дж. (1996) «Последовательный анализ доказательств судебно-медицинской экспертизы». Журнал Королевского статистического общества , серия B, 58, 425–443.
^
Форман, Лос-Анджелес; Смит, AFM, и Эветт, IW (1997). «Байесовский анализ данных профиля дезоксирибонуклеиновой кислоты в приложениях судебно-медицинской идентификации (с обсуждением)». Журнал Королевского статистического общества , серия A, 160, 429–469.
^ Робертсон, Б. и Виньо, Джорджия (1995) Интерпретация доказательств: оценка судебной экспертизы в зале суда . Джон Уайли и сыновья. Чичестер. ISBN 978-0-471-96026-3
^ Дэвид, AP (2001) Теорема Байеса и взвешивание доказательств присяжными. Архивировано 1 июля 2015 г. в Wayback Machine.
^ Гарднер-Медвин, А. (2005) «Какую вероятность следует рассмотреть присяжным?». Значение , 2 (1), март 2005 г.
^ Миллер, Дэвид (1994). Критический рационализм. Чикаго: Открытый суд. ISBN978-0-8126-9197-9.
^ Хаусон и Урбах (2005), Джейнс (2003)
^ Цай, XQ; Ву, XY; Чжоу, X. (2009). «Стохастическое планирование с учетом повторяющихся пробоев с неполной информацией». Исследование операций . 57 (5): 1236–1249. дои : 10.1287/opre.1080.0660.
^ Огл, Киона; Такер, Колин; Кейбл, Джессика М. (01 января 2014 г.). «Помимо простых моделей линейного смешивания: изотопное разделение экологических процессов на основе процессов». Экологические приложения . 24 (1): 181–195. дои : 10.1890/1051-0761-24.1.181. ISSN 1939-5582. ПМИД 24640543.
^ Эваристо, Хайвиме; Макдоннелл, Джеффри Дж.; Шолль, Марта А.; Брейнзель, Л. Адриан; Чун, Квок П. (01 января 2016 г.). «Изучение потребления воды растениями на основе измерений изотопов ксилемной воды в двух тропических водосборных бассейнах с контрастными условиями влажности». Гидрологические процессы . 30 (18): 3210–3227. Бибкод : 2016HyPr...30.3210E. дои : 10.1002/hyp.10841. ISSN 1099-1085. S2CID 131588159.
^ Гупта, Анкур; Роулингс, Джеймс Б. (апрель 2014 г.). «Сравнение методов оценки параметров в стохастических химико-кинетических моделях: примеры системной биологии». Журнал Айше . 60 (4): 1253–1268. Бибкод :2014АИЧЕ..60.1253Г. дои : 10.1002/aic.14409. ISSN 0001-1541. ПМЦ 4946376 . ПМИД 27429455.
^ Форнальски, KW (2016). «Байесовская модель головастика для обнаружения трендовых изменений финансовых котировок» (PDF) . R&R Журнал статистики и математических наук . 2 (1): 117–122.
^ Шютц, Н.; Холшнайдер, М. (2011). «Обнаружение изменений тренда во временных рядах с использованием байесовского вывода». Физический обзор E . 84 (2): 021120. arXiv : 1104.3448 . Бибкод : 2011PhRvE..84b1120S. doi : 10.1103/PhysRevE.84.021120. PMID 21928962. S2CID 11460968.
^ Стиглер, Стивен М. (1986). "Глава 3" . История статистики . Издательство Гарвардского университета. ISBN9780674403406.
^ ab Fienberg, Стивен Э. (2006). «Когда байесовский вывод стал «байесовским»?». Байесовский анализ . 1 (1): 1–40 [с. 5]. дои : 10.1214/06-ba101 .
^ Вулперт, RL (2004). «Разговор с Джеймсом О. Бергером». Статистическая наука . 19 (1): 205–218. CiteSeerX 10.1.1.71.6112 . дои : 10.1214/088342304000000053. MR 2082155. S2CID 120094454.
^ Бернардо, Хосе М. (2006). «Букварь по байесовской математической статистике» (PDF) . Икотс-7 .
^ Бишоп, CM (2007). Распознавание образов и машинное обучение . Нью-Йорк: Спрингер. ISBN978-0387310732.
Источники
Астер, Ричард; Борчерс, Брайан, и Тербер, Клиффорд (2012). Оценка параметров и обратные задачи , второе издание, Elsevier. ISBN 0123850487 , ISBN 978-0123850485
Бикель, Питер Дж. и Доксум, Кьелл А. (2001). Математическая статистика, Том 1: Основные и избранные темы (Второе (обновленное издание, 2007 г.) изд.). Пирсон Прентис-Холл. ISBN 978-0-13-850363-5.
Эдвардс, Уорд (1968). «Консерватизм в обработке информации человеком». В Кляйнмунц, Б. (ред.). Формальное представление человеческого суждения . Уайли.
Эдвардс, Уорд (1982). Дэниел Канеман ; Пол Слович ; Амос Тверски (ред.). «Суждение в условиях неопределенности: эвристика и предвзятость». Наука . 185 (4157): 1124–1131. Бибкод : 1974Sci...185.1124T. дои : 10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957. Глава: Консерватизм в обработке информации человеком (отрывок)
Джейнс Э.Т. (2003) Теория вероятностей: логика науки , CUP. ISBN 978-0-521-59271-0 (ссылка на фрагментарное издание за март 1996 г.).
Филлипс, Л.Д.; Эдвардс, Уорд (октябрь 2008 г.). «Глава 6: Консерватизм в простой задаче вероятностного вывода ( Журнал экспериментальной психологии (1966) 72: 346-354)». В Цзе В. Вайсе; Дэвид Дж. Вайс (ред.). Наука принятия решений: наследие Уорда Эдвардса . Издательство Оксфордского университета. п. 536. ИСБН 978-0-19-532298-9.
дальнейшее чтение
Полный отчет об истории байесовской статистики и дебатах о часто встречающихся подходах можно найти в Vallverdu, Jordi (2016). Байесовцы против частотников. Философские дебаты о статистических рассуждениях . Нью-Йорк: Спрингер. ISBN 978-3-662-48638-2.
Клейтон, Обри (август 2021 г.). Заблуждение Бернулли: статистическая нелогика и кризис современной науки. Издательство Колумбийского университета. ISBN 978-0-231-55335-3.
элементарный
Следующие книги перечислены в порядке возрастания вероятностной сложности:
Стоун, СП (2013), «Правило Байеса: учебное пособие по байесовскому анализу», загрузите первую главу здесь, Sebtel Press, Англия.
Болстад, Уильям М. (2007) Введение в байесовскую статистику : второе издание, John Wiley ISBN 0-471-27020-2
Винклер, Роберт Л. (2003). Введение в байесовский вывод и принятие решений (2-е изд.). Вероятностный. ISBN 978-0-9647938-4-2.Обновлен классический учебник. Ярко представлена байесовская теория.
Ли, Питер М. Байесианская статистика: введение . Четвертое издание (2012 г.), ISBN Джона Уайли 978-1-1183-3257-3
Карлин, Брэдли П. и Луи, Томас А. (2008). Байесовские методы анализа данных, третье издание . Бока-Ратон, Флорида: Чепмен и Холл/CRC. ISBN 978-1-58488-697-6.
Гельман, Эндрю ; Карлин, Джон Б.; Стерн, Хэл С.; Дансон, Дэвид Б.; Вехтари, Аки; Рубин, Дональд Б. (2013). Байесовский анализ данных, третье издание . Чепмен и Холл/CRC. ISBN 978-1-4398-4095-5.
Средний или продвинутый
Бергер, Джеймс О (1985). Статистическая теория принятия решений и байесовский анализ . Серия Спрингера по статистике (второе изд.). Спрингер-Верлаг. Бибкод : 1985sdtb.book.....B. ISBN 978-0-387-96098-2.
ДеГрут, Моррис Х. , Оптимальные статистические решения . Библиотека классической литературы Уайли. 2004. (Первоначально опубликовано (1970) издательством McGraw-Hill.) ISBN 0-471-68029-X .
Шервиш, Марк Дж. (1995). Теория статистики . Спрингер-Верлаг. ISBN 978-0-387-94546-0.
Джейнс, ET (1998). Теория вероятностей: логика науки.
О'Хаган А. и Форстер Дж. (2003). Расширенная теория статистики Кендалла , Том 2B: Байесовский вывод . Арнольд, Нью-Йорк. ISBN 0-340-52922-9 .
Роберт, Кристиан П. (2007). Байесовский выбор: от основ теории принятия решений к вычислительной реализации (изд. в мягкой обложке). Спрингер. ISBN 978-0-387-71598-8.
Перл, Иудея . (1988). Вероятностное рассуждение в интеллектуальных системах: сети правдоподобного вывода , Сан-Матео, Калифорния: Морган Кауфманн.
Пьер Бессьер и др. (2013). «Байесовское программирование». ЦРК Пресс. ISBN 9781439880326
Франсиско Дж. Саманиего (2010). «Сравнение байесовского и частотного подходов к оценке». Спрингер. Нью-Йорк, ISBN 978-1-4419-5940-9.
Введение в байесовскую вероятность от Лондонского университета королевы Марии.
Математические заметки о байесовской статистике и цепи Маркова Монте-Карло
Список байесовской литературы, классифицированный и аннотированный Томом Гриффитсом.
А. Хаек и С. Хартманн: Байесианская эпистемология, в: J. Dancy et al. (ред.), «Спутник эпистемологии». Оксфорд: Блэквелл 2010, 93–106.
С. Хартманн и Дж. Шпренгер: Байесовская эпистемология, в: С. Бернекер и Д. Притчард (ред.), Routledge Companion to Epistemology. Лондон: Routledge 2010, 609–620.
Стэнфордская энциклопедия философии: «Индуктивная логика»
Байесовская теория подтверждения (PDF)
Что такое байесовское обучение?
Данные, неопределенность и выводы — неформальное введение со множеством примеров, электронная книга (PDF) находится в свободном доступе на сайте causaScientia.