stringtranslate.com

Априорная вероятность

Априорное распределение вероятностей неопределенной величины, часто называемое просто априорным , представляет собой предполагаемое распределение вероятностей до того, как будут приняты во внимание некоторые данные. Например, априорным может быть распределение вероятностей, представляющее относительные пропорции избирателей, которые проголосуют за конкретного политика на будущих выборах. Неизвестная величина может быть параметром модели или скрытой переменной , а не наблюдаемой переменной .

В байесовской статистике правило Байеса предписывает , как обновить априорную информацию новой информацией, чтобы получить апостериорное распределение вероятностей , которое представляет собой условное распределение неопределенной величины с учетом новых данных. Исторически сложилось так, что выбор априорных значений часто ограничивался сопряженным семейством заданной функции правдоподобия , поскольку в этом случае в результате получался управляемый апостериор того же семейства. Однако широкая доступность методов Монте-Карло с цепями Маркова сделала этот вопрос менее тревожным.

Существует много способов построить априорное распределение. [1] В некоторых случаях априорное значение может быть определено на основе прошлой информации, например, предыдущих экспериментов. Априорное значение можно также получить на основе чисто субъективной оценки опытного эксперта. [2] [3] При отсутствии информации может быть принят неинформативный априор , оправданный принципом безразличия . [4] [5] В современных приложениях априоры также часто выбираются из-за их механических свойств, таких как регуляризация и выбор признаков . [6] [7] [8]

Априорные распределения параметров модели часто зависят от их собственных параметров. Неопределенность в отношении этих гиперпараметров , в свою очередь, может быть выражена как гипераприорные распределения вероятностей. Например, если использовать бета-распределение для моделирования распределения параметра p распределения Бернулли , то:

В принципе, априоры можно разложить на множество условных уровней распределений, так называемых иерархических априоров . [9]

Информационные априоры

Информативный априор выражает конкретную, определенную информацию о переменной. Примером может служить априорное распределение температуры завтра в полдень. Разумный подход состоит в том, чтобы сделать априорное нормальное распределение с ожидаемым значением , равным сегодняшней полуденной температуре, с дисперсией , равной суточному отклонению температуры воздуха, или распределением температуры для этого дня года.

Этот пример имеет общее свойство со многими априорными задачами, а именно: апостериорное значение одной задачи (сегодняшняя температура) становится априорным для другой задачи (завтрашняя температура); ранее существовавшие доказательства, которые уже были приняты во внимание, являются частью предшествующих, и по мере накопления большего количества доказательств апостериорные определяются в основном доказательствами, а не каким-либо первоначальным предположением, при условии, что исходное предположение допускало возможность того, чем являются доказательства. предлагая. Термины «предыдущий» и «апостериорный» обычно относятся к конкретным данным или наблюдению.

Сильный приор

Сильный априор — это предшествующее предположение, теория, концепция или идея, на которой после учета новой информации основывается текущее предположение, теория, концепция или идея. [ нужна цитация ] Сильный априор — это тип информативного априора, в котором информация, содержащаяся в априорном распределении, доминирует над информацией, содержащейся в анализируемых данных. Байесовский анализ объединяет информацию, содержащуюся в априорном распределении, с информацией, извлеченной из данных, для получения апостериорного распределения , которое в случае «сильного априорного распределения» мало отличается от априорного распределения.

Слабоинформативные априоры

Слабоинформативный априор выражает частичную информацию о переменной, направляя анализ к решениям, которые соответствуют существующим знаниям, не ограничивая при этом чрезмерно результаты и не допуская экстремальных оценок. Например, при настройке предварительного распределения температуры завтра в полдень в Сент-Луисе нужно использовать нормальное распределение со средним значением 50 градусов по Фаренгейту и стандартным отклонением 40 градусов, что очень слабо ограничивает температуру диапазоном (10 градусов, 90 градусов). градусов) с небольшой вероятностью быть ниже -30 градусов или выше 130 градусов. Целью слабоинформативного априора является регуляризация , то есть сохранение выводов в разумном диапазоне.

Неинформативные априоры

Неинформативное , плоское или размытое априорное выражение выражает расплывчатую или общую информацию о переменной. [4] Термин «неинформативный априор» употребляется в некоторой степени неправильно. Такой априор можно также назвать не очень информативным априором или объективным априором , то есть таким, который не возникает субъективно.

Неинформативные априорные значения могут выражать «объективную» информацию, например «переменная положительна» или «переменная меньше некоторого предела». Самым простым и старым правилом определения неинформативного априора является принцип безразличия , который приписывает всем возможностям равные вероятности. В задачах оценки параметров использование неинформативного априора обычно дает результаты, которые не слишком отличаются от обычного статистического анализа, поскольку функция правдоподобия часто дает больше информации, чем неинформативный априор.

Были предприняты некоторые попытки найти априорные вероятности , то есть распределения вероятностей, в некотором смысле логически требуемые природой состояния неопределенности; это предмет философских споров, при этом байесианцы грубо делятся на две школы: «объективные байесовцы», которые считают, что такие априорные положения существуют во многих полезных ситуациях, и «субъективные байесовцы», которые считают, что на практике априорные утверждения обычно представляют собой субъективные суждения о мнениях, которые не может быть строго обосновано (Williamson 2010). Возможно, самые сильные аргументы в пользу объективного байесовства были даны Эдвином Т. Джейнсом , основанные главным образом на следствиях симметрии и на принципе максимальной энтропии.

В качестве примера априорного априора, предложенного Джейнсом (2003), рассмотрим ситуацию, в которой известно, что мяч был спрятан под одной из трех чашек: A, B или C, но никакой другой информации о его местонахождении нет. . В этом случае равномерный априор p ( A ) = p ( B ) = p ( C ) = 1/3 интуитивно кажется единственным разумным выбором. Более формально мы видим, что проблема останется той же, если поменять местами метки («A», «B» и «C») на чашках. Поэтому было бы странно выбирать априорное значение, для которого перестановка меток привела бы к изменению наших предсказаний о том, под какой чашкой будет найден мяч; единый априор - единственный, который сохраняет эту инвариантность. Если принять этот принцип инвариантности, то можно увидеть, что единообразный априор является логически правильным априором для представления этого состояния знаний. Этот априор «объективен» в том смысле, что он является правильным выбором для представления определенного состояния знаний, но он не объективен в том смысле, что он является независимой от наблюдателя особенностью мира: в действительности мяч существует под определенной чашкой. , и о вероятностях в этой ситуации имеет смысл говорить только в том случае, если есть наблюдатель с ограниченными знаниями о системе. [10]

В качестве более спорного примера Джейнс опубликовал аргумент, основанный на инвариантности априора при изменении параметров, который предполагает, что априор, представляющий полную неопределенность в отношении вероятности, должен быть априором Холдейна p -1 ( 1 -  p ) -1 . [11] Джейнс приводит пример: он нашел химическое вещество в лаборатории и спросил, растворится ли оно в воде в повторных экспериментах. Априор Холдейна [12] придает наибольший вес значениям и , указывая на то, что образец либо растворяется каждый раз, либо никогда не растворяется с равной вероятностью. Однако, если наблюдалось, что образцы химического вещества растворяются в одном эксперименте и не растворяются в другом эксперименте, то это априорное значение обновляется до равномерного распределения в интервале [0, 1]. Это получается путем применения теоремы Байеса к набору данных, состоящему из одного наблюдения растворения и одного наблюдения отсутствия растворения, с использованием приведенного выше априора. Априорное распределение Холдейна является неправильным априорным распределением (это означает, что оно имеет бесконечную массу). Гарольд Джеффрис разработал систематический способ разработки неинформативных априорных величин, таких как, например, априорный априор Джеффриса p -1/2 (1 -  p ) -1/2 для случайной величины Бернулли.

Можно построить априоры, пропорциональные мере Хаара , если пространство параметров X имеет естественную групповую структуру , которая оставляет инвариантным наше байесовское состояние знаний. [11] Это можно рассматривать как обобщение принципа инвариантности, используемого для обоснования единообразия априора для трех чашек в приведенном выше примере. Например, в физике мы могли бы ожидать, что эксперимент даст одни и те же результаты независимо от нашего выбора начала системы координат. Это индуцирует групповую структуру группы трансляции на X , которая определяет априорную вероятность как постоянную несобственную априорную вероятность . Точно так же некоторые измерения естественным образом инвариантны к выбору произвольного масштаба (например, независимо от того, используются ли сантиметры или дюймы, физические результаты должны быть одинаковыми). В таком случае масштабная группа является естественной структурой группы, а соответствующий априор на X пропорционален 1/ x . Иногда имеет значение, используем ли мы левоинвариантную или правоинвариантную меру Хаара. Например, левая и правая инвариантные меры Хаара на аффинной группе не равны. Бергер (1985, стр. 413) утверждает, что правоинвариантная мера Хаара является правильным выбором.

Другая идея, которую отстаивает Эдвин Т. Джейнс , заключается в использовании принципа максимальной энтропии (MAXENT). Мотивация состоит в том, что энтропия Шеннона распределения вероятностей измеряет количество информации, содержащейся в распределении. Чем больше энтропия, тем меньше информации дает распределение. Таким образом, максимизируя энтропию по подходящему набору вероятностных распределений на X , можно найти распределение, которое является наименее информативным в том смысле, что оно содержит наименьшее количество информации, согласующейся с ограничениями, определяющими этот набор. Например, максимальная энтропия в дискретном пространстве, учитывая только то, что вероятность нормирована до 1, является априором, который присваивает равную вероятность каждому состоянию. А в непрерывном случае максимальная энтропия, учитывая, что плотность нормализована с нулевым средним значением и единичной дисперсией, является стандартным нормальным распределением . Принцип минимальной перекрестной энтропии обобщает MAXENT на случай «обновления» произвольного априорного распределения подходящими ограничениями в смысле максимальной энтропии.

Близкая идея — ссылочные априоры — была предложена Хосе-Мигелем Бернардо . Здесь идея состоит в том, чтобы максимизировать ожидаемое расхождение Кульбака-Лейблера апостериорного распределения относительно априорного. Это максимизирует ожидаемую апостериорную информацию об X , когда априорная плотность равна p ( x ); таким образом, в некотором смысле p ( x ) является «наименее информативным» априором относительно X. Эталонный априор определяется в асимптотическом пределе, т. е. рассматривается предел априорных значений, полученных таким образом, когда количество точек данных стремится к бесконечности. . В данном случае расхождение KL между априорным и апостериорным распределениями определяется выражением

Здесь – достаточная статистика для некоторого параметра . Внутренний интеграл представляет собой расхождение KL между апостериорным и априорным распределениями, а результатом является средневзвешенное значение по всем значениям . Разбив логарифм на две части, изменив порядок интегралов во второй части на обратный и заметив, что

Внутренний интеграл во второй части представляет собой интеграл от плотности соединений . Это предельное распределение , поэтому мы имеем

Теперь мы используем концепцию энтропии, которая в случае распределений вероятностей представляет собой отрицательное ожидаемое значение логарифма массы вероятности или функции плотности. Использование этого значения в последнем уравнении дает

Другими словами, KL — это отрицательное ожидаемое значение энтропии условного плюс предельной (то есть безусловной) энтропии . В предельном случае, когда размер выборки стремится к бесконечности, теорема Бернштейна-фон Мизеса утверждает, что распределение условного выражения для данного наблюдаемого значения является нормальным с дисперсией, равной обратной величине информации Фишера при «истинном» значении . Энтропия функции нормальной плотности равна половине логарифма дисперсии распределения . Поэтому в этом случае

где пропорционально (асимптотически большому) размеру выборки. Мы не знаем цену . Действительно, сама идея противоречит философии байесовского вывода, в которой «истинные» значения параметров заменяются априорными и апостериорными распределениями. Поэтому мы удаляем , заменяя его и взяв ожидаемое значение нормальной энтропии, которое мы получаем путем умножения на и интегрирования по . Это позволяет нам объединить логарифмы, давая

Это квази-КЛ-расхождение («квази» в том смысле, что квадратный корень из информации Фишера может быть ядром неправильного распределения). Из-за знака минус нам нужно минимизировать это, чтобы максимизировать расхождение KL, с которого мы начали. Минимальное значение последнего уравнения возникает там, где два распределения аргумента логарифма, неправильные или нет, не расходятся. Это, в свою очередь, происходит, когда априорное распределение пропорционально квадратному корню из информации Фишера функции правдоподобия. Следовательно, в случае с одним параметром априорные значения ссылок и априорные значения Джеффриса идентичны, хотя у Джеффриса совсем другое обоснование.

Эталонные априоры часто являются объективными априорами выбора в многомерных задачах, поскольку другие правила (например, правило Джеффриса ) могут привести к априорным значениям с проблемным поведением. [ нужны разъяснения. А предшествующий опыт Джеффриса связан с расхождением KL? ]

Объективные априорные распределения также могут быть получены на основе других принципов, таких как теория информации или кодирования (см., например, минимальная длина описания ) или частотная статистика (так называемые априоры вероятностного сопоставления). [13] Такие методы используются в теории индуктивного вывода Соломонова . Построение объективных априорных данных недавно было введено в биоинформатику и особенно в биологию раковых систем, где размер выборки ограничен и доступен огромный объем предварительных знаний . В этих методах используется либо критерий, основанный на теории информации, такой как KL-дивергенция, либо логарифмическая функция правдоподобия для бинарных задач обучения с учителем [14] и задач смешанной модели. [15]

Философские проблемы, связанные с неинформативными априорами, связаны с выбором подходящей метрики или шкалы измерения. Предположим, нам нужен априорный показатель скорости бега неизвестного нам бегуна. Мы могли бы указать, скажем, нормальное распределение в качестве априорного значения его скорости, но в качестве альтернативы мы могли бы указать нормальное априорное распределение для времени, которое ему потребуется для прохождения 100 метров, что пропорционально обратной величине первого априорного значения. Это очень разные приоры, но неясно, чему отдать предпочтение. Метод групп преобразований Джейнса может ответить на этот вопрос в некоторых ситуациях. [16]

Аналогично, если нас попросят оценить неизвестную пропорцию между 0 и 1, мы могли бы сказать, что все пропорции одинаково вероятны, и использовать единый априор. В качестве альтернативы мы могли бы сказать, что все порядки величины пропорции одинаково вероятны, т.е.логарифмический априор , который является равномерным априором логарифма пропорции. Приор Джеффрисапытаетсярешить эту проблему путем вычисления априора, который выражает одно и то же убеждение, независимо от того, какая метрика используется. Априор Джеффриса для неизвестной пропорцииpравенp−1/2(1 − p)−1/2, что отличается от рекомендации Джейнса.

Приоритеты, основанные на понятиях алгоритмической вероятности , используются в индуктивном выводе в качестве основы для индукции в очень общих условиях.

Практические проблемы, связанные с неинформативными априорными значениями, включают требование правильного апостериорного распределения. Обычные неинформативные априоры для непрерывных неограниченных переменных неправильны. Это не должно быть проблемой, если апостериорное распределение правильное. Другой важный вопрос заключается в том, что если неинформативный априор будет использоваться регулярно , то есть со многими различными наборами данных, он должен иметь хорошие частотные свойства. Обычно байесианца такие вопросы не интересуют, но в данной ситуации это может быть важно. Например, хотелось бы, чтобы любое решающее правило , основанное на апостериорном распределении, было допустимым при принятой функции потерь. К сожалению, приемлемость зачастую трудно проверить, хотя некоторые результаты известны (например, Berger and Strawderman 1996). Эта проблема особенно остра в случае с иерархическими моделями Байеса ; обычные априоры (например, априор Джеффриса) могут давать совершенно неприемлемые правила принятия решений, если они используются на более высоких уровнях иерархии.

Неправильные априоры

Пусть события будут взаимоисключающими и исчерпывающими. Если теорема Байеса записана как

тогда ясно, что тот же результат был бы получен, если бы все априорные вероятности P ( Ai ) и P ( Aj ) были умножены на заданную константу ; то же самое было бы верно и для непрерывной случайной величины . Если суммирование в знаменателе сходится, апостериорные вероятности все равно будут суммироваться (или интегрироваться) до 1, даже если априорные значения этого не делают, и поэтому априорные вероятности, возможно, потребуется указать только в правильной пропорции. Развивая эту идею дальше, во многих случаях сумма или интеграл априорных значений может даже не обязательно быть конечной, чтобы получить разумные ответы для апостериорных вероятностей. В этом случае априор называется неправильным априором . Однако апостериорное распределение не обязательно должно быть правильным, если априорное распределение неправильное. [17] Это ясно из случая, когда событие B не зависит от всех событий A j .

Статистики иногда используют неправильные априорные значения в качестве неинформативных априорных значений . [18] Например, если им нужно априорное распределение среднего значения и дисперсии случайной величины, они могут предположить, что p ( mv ) ~ 1/ v (для v  > 0), что предполагает, что любое значение среднего значения «одинаково вероятно» и что значение положительной дисперсии становится «менее вероятным» обратно пропорционально своему значению. Многие авторы (Линдли, 1973; Де Гроот, 1937; Касс и Вассерман, 1996) [ нужна ссылка ] предостерегают от опасности чрезмерной интерпретации этих априорных значений, поскольку они не являются плотностями вероятности. Единственная релевантность, которую они имеют, обнаруживается в соответствующей апостериорной области, если она четко определена для всех наблюдений. ( Приор Холдейна является типичным контрпримером. [ нужны разъяснения ] [ нужна цитация ] ).

Напротив, функции правдоподобия не нуждаются в интегрировании, а функция правдоподобия, которая равномерно равна 1, соответствует отсутствию данных (все модели одинаково вероятны при отсутствии данных): правило Байеса умножает априорное значение на вероятность, и пустой продукт — это всего лишь постоянная вероятность 1. Однако, не начав с априорного распределения вероятностей, невозможно получить апостериорное распределение вероятностей и, следовательно, невозможно интегрировать или вычислить ожидаемые значения или потери. Подробности см. в разделе «Функция правдоподобия § Неинтегрируемость» .

Примеры

Примеры ненадлежащих априорных данных включают в себя:

Эти функции, интерпретируемые как равномерные распределения, также можно интерпретировать как функцию правдоподобия в отсутствие данных, но они не являются собственными априорными значениями.

Априорная вероятность в статистической механике

В то время как в байесовской статистике априорная вероятность используется для представления первоначальных представлений о неопределенном параметре, в статистической механике априорная вероятность используется для описания начального состояния системы. [19] Классическая версия определяется как отношение числа элементарных событий (например, количества бросаний игральной кости) к общему числу событий – и они рассматриваются чисто дедуктивно, т.е. без какого-либо экспериментирования. В случае игральной кости, если мы смотрим на нее на столе, не бросая ее, каждое элементарное событие дедуктивно определяется как имеющее одинаковую вероятность - таким образом, вероятность каждого результата воображаемого бросания (идеального) игрального кубика или просто путем подсчета количество граней – 1/6. Каждая грань игральной кости выпадает с одинаковой вероятностью — вероятность является мерой, определенной для каждого элементарного события. Результат будет другим, если мы бросим кубик двадцать раз и спросим, ​​сколько раз (из 20) на верхней грани выпадет число 6. В этом случае в игру вступает время, и у нас есть различный тип вероятности, зависящий от времени или количества бросков кубика. С другой стороны, априорная вероятность не зависит от времени: вы можете сколько угодно смотреть на кубик на столе, не касаясь его, и прийти к выводу, что вероятность появления числа 6 на верхней грани равна 1/6. .

В статистической механике, например, газа, содержащегося в конечном объеме , как пространственные координаты , так и координаты импульса отдельных элементов газа (атомов или молекул) конечны в фазовом пространстве, охватываемом этими координатами. По аналогии со случаем игральной кости априорная вероятность здесь (в случае континуума) пропорциональна элементу объема фазового пространства, деленному на , и представляет собой число стоячих волн (т.е. состояний) в нем, где - диапазон переменной и представляет собой диапазон переменной (здесь для простоты рассматривается в одном измерении). В 1 измерении (длина ) это число или статистический вес или априорный вес равен . В обычных трехмерных измерениях (объем ) соответствующее число можно вычислить как . [20] Чтобы понять, что эта величина дает ряд состояний в квантовой (т.е. волновой) механике, вспомните, что в квантовой механике каждая частица связана с волной материи, которая является решением уравнения Шредингера. В случае свободных частиц (с энергией ), таких как частицы газа в объемном ящике, такая волна материи явно

,

где целые числа. Затем количество различных значений и, следовательно, состояний в области между ними определяется как приведенное выше выражение , учитывая площадь, охватываемую этими точками. Более того, ввиду соотношения неопределенностей , которое в 1 пространственном измерении равно

,

эти состояния неотличимы (т.е. эти состояния не имеют ярлыков). Важным следствием является результат, известный как теорема Лиувилля , т.е. независимость от времени этого элемента объема фазового пространства и, следовательно, от априорной вероятности. Зависимость этой величины от времени подразумевала бы известную информацию о динамике системы и, следовательно, не была бы априорной вероятностью. [21] Таким образом, регион

при дифференцировании по времени дает ноль (с помощью уравнений Гамильтона): Объем в момент времени такой же, как и в нулевой момент времени. Это также называют сохранением информации.

В полной квантовой теории действует аналогичный закон сохранения. В этом случае область фазового пространства заменяется подпространством пространства состояний, выраженным через оператор проектирования , и вместо вероятности в фазовом пространстве имеет место плотность вероятности

где – размерность подпространства. Закон сохранения в этом случае выражается унитарностью S-матрицы . В любом случае рассуждения предполагают замкнутую изолированную систему. Эта замкнутая изолированная система представляет собой систему с (1) фиксированной энергией и (2) фиксированным числом частиц в (в) состоянии равновесия. Если рассмотреть огромное количество реплик этой системы, то получится так называемый микроканонический ансамбль . Именно для этой системы в квантовой статистике постулируется «фундаментальный постулат равенства априорных вероятностей изолированной системы». Это говорит о том, что изолированная система в равновесии занимает каждое из доступных ей состояний с одинаковой вероятностью. Таким образом, этот фундаментальный постулат позволяет нам приравнять априорную вероятность к вырождению системы, т. е. к числу различных состояний с одинаковой энергией.

Пример

Следующий пример иллюстрирует априорную вероятность (или априорное взвешивание) в (а) классическом и (б) квантовом контекстах.

(а) Классическая априорная вероятность

Рассмотрим энергию вращения E двухатомной молекулы с моментом инерции I в сферических полярных координатах (это означает выше здесь ), т.е.

The

.

Путем интегрирования по и общий объем фазового пространства, охватываемого при постоянной энергии E, равен

,

и, следовательно, классический априорный вес в диапазоне энергий равен

(объем фазового пространства при ) минус (объем фазового пространства при ) определяется выражением

(б) Квантовая априорная вероятность

Предполагая, что количество квантовых состояний в диапазоне для каждого направления движения задано на элемент в коэффициенте , количество состояний в диапазоне энергий dE равно, как видно из (а) для вращающейся двухатомной молекулы. Из волновой механики известно, что уровни энергии вращающейся двухатомной молекулы определяются выражением

каждый такой уровень (2n+1)-кратно вырожден. Оценивая, мы получаем

Таким образом, по сравнению с предыдущим, можно обнаружить, что приблизительное число состояний в области dE определяется вырождением, т. е.

Таким образом, априорное взвешивание в классическом контексте (а) соответствует априорному взвешиванию здесь, в квантовом контексте (б). В случае одномерного простого гармонического осциллятора собственной частоты находим соответственно: (а)

,

В случае атома водорода или кулоновского потенциала (где оценка объема фазового пространства при постоянной энергии более сложна) известно, что квантовомеханическое вырождение имеет место с . Так в этом случае .

Априорная вероятность и функции распределения

В статистической механике (см. любую книгу) выводятся так называемые функции распределения различных статистик. В случае статистики Ферми – Дирака и статистики Бозе – Эйнштейна эти функции соответственно равны

Эти функции получены для (1) системы, находящейся в динамическом равновесии (т.е. в устойчивых, однородных условиях) с (2) полным (и огромным) числом частиц (это условие определяет константу ) и (3) полной энергией , т.е. каждая из частиц имеет энергию . Важным аспектом при выводе является учет неразличимости частиц и состояний в квантовой статистике, т.е. там частицы и состояния не имеют меток. Следовательно , в случае фермионов, таких как электроны, подчиняющихся принципу Паули (только одна частица в каждом состоянии или ни одна частица не допускается), следовательно,

Таким образом, это мера доли состояний, фактически занятых электронами при энергии и температуре . С другой стороны, априорная вероятность является мерой количества доступных волновых механических состояний. Следовательно

Так как является постоянным в однородных условиях (столько частиц, сколько частиц вытекает из элемента объема, также и втекает равномерно, так что ситуация в элементе кажется статичной), т.е. не зависит от времени , а также не зависит от времени, как было показано ранее, мы получаем

Выразив это уравнение через его частные производные, получаем уравнение переноса Больцмана . Как тут вдруг появляются координаты и т.п.? Выше не было упомянуто ни об электрических, ни о других полях. Таким образом, при отсутствии таких полей мы имеем распределение Ферми-Дирака, как указано выше. Но при наличии таких полей мы имеем дополнительную зависимость .

Смотрите также

Примечания

  1. ^ Роберт, Кристиан (1994). «От предварительной информации к предшествующим распределениям». Байесовский выбор . Нью-Йорк: Спрингер. стр. 89–136. ISBN 0-387-94296-3.
  2. ^ Чалонер, Кэтрин (1996). «Выявление предшествующих распределений». В Берри, Дональд А.; Штангл, Дален (ред.). Байесовская биостатистика . Нью-Йорк: Марсель Деккер. стр. 141–156. ISBN 0-8247-9334-Х.
  3. ^ Миккола, Петрус; и другие. (2023). «Предварительное получение знаний: прошлое, настоящее и будущее». Байесовский анализ . Ожидается. дои : 10.1214/23-BA1381. hdl : 11336/183197 . S2CID  244798734.
  4. ^ аб Зеллнер, Арнольд (1971). «Предыдущие выпуски представляют собой «малознание»". Введение в байесовский вывод в эконометрике . Нью-Йорк: John Wiley & Sons. стр. 41–53. ISBN 0-471-98165-6.
  5. ^ Прайс, Гарольд Дж.; Мэнсон, Эллисон Р. (2001). «Неинформативные априоры теоремы Байеса». Конференция АИП. Проц . 617 : 379–391. дои : 10.1063/1.1477060.
  6. ^ Пийронен, Юхо; Вехтари, Аки (2017). «Информация о разреженности и регуляризация в подкове и других априорах усадки». Электронный статистический журнал . 11 (2): 5018–5051. arXiv : 1707.01694 . дои : 10.1214/17-EJS1337SI .
  7. ^ Симпсон, Дэниел; и другие. (2017). «Наказание за сложность компонентов модели: принципиальный, практический подход к построению априорных значений». Статистическая наука . 32 (1): 1–28. arXiv : 1403.4630 . дои : 10.1214/16-STS576. S2CID  88513041.
  8. ^ Фортуин, Винсент (2022). «Приоритеты байесовского глубокого обучения: обзор». Международный статистический обзор . 90 (3): 563–591. дои : 10.1111/insr.12502. hdl : 20.500.11850/547969 . S2CID  234681651.
  9. ^ Конгдон, Питер Д. (2020). «Методы регрессии с использованием иерархических априорных значений». Байесовские иерархические модели (2-е изд.). Бока-Ратон: CRC Press. стр. 253–315. ISBN 978-1-03-217715-1.
  10. ^ Флоренс, Жан-Пьер; Мушар, Майкл; Ролен, Жан-Мари (1990). «Аргументы инвариантности в байесовской статистике». Принятие экономических решений: игры, эконометрика и оптимизация . Северная Голландия. стр. 351–367. ISBN 0-444-88422-Х.
  11. ^ Аб Джейнс, Эдвин Т. (сентябрь 1968 г.). «Априорные вероятности» (PDF) . Транзакции IEEE по системным наукам и кибернетике . 4 (3): 227–241. дои : 10.1109/TSSC.1968.300117.
  12. ^ Этот априор был предложен Дж. Б. С. Холдейном в «Заметках об обратной вероятности», Mathematical Proceedings of the Cambridge Philosophical Society 28, 55–61, 1932, doi : 10.1017/S0305004100010495. См. также Дж. Холдейн, «Точность наблюдаемых значений малых частот», Biometrika, 35:297–300, 1948, doi :10.2307/2332350, JSTOR  2332350.
  13. ^ Датта, Гаури Санкар; Мукерджи, Рахул (2004). Приоритеты совпадения вероятностей: асимптотика высшего порядка . Спрингер. ISBN 978-0-387-20329-4.
  14. ^ Исфахани, М.С.; Догерти, ER (2014). «Включение знаний о биологических путях в построение априорных значений для оптимальной байесовской классификации - журналы и журналы IEEE». Транзакции IEEE/ACM по вычислительной биологии и биоинформатике . 11 (1): 202–18. дои : 10.1109/TCBB.2013.143. PMID  26355519. S2CID  10096507.
  15. ^ Болуки, Шахин; Исфахани, Мохаммад Шахрох; Цянь, Сяонин; Догерти, Эдвард Р. (декабрь 2017 г.). «Включение биологических предварительных знаний в байесовское обучение посредством максимальных априорных знаний, основанных на знаниях». БМК Биоинформатика . 18 (S14): 552. doi : 10.1186/s12859-017-1893-4 . ISSN  1471-2105. ПМК 5751802 . ПМИД  29297278. 
  16. ^ Джейнс (1968), стр. 17, см. также Джейнс (2003), глава 12. Обратите внимание, что глава 12 недоступна в онлайн-препринте, но ее можно просмотреть в Google Книгах.
  17. ^ Дэвид, AP; Стоун, М.; Зидек, СП (1973). «Парадоксы маргинализации в байесовском и структурном выводе». Журнал Королевского статистического общества . Серия Б (Методическая). 35 (2): 189–233. JSTOR  2984907.
  18. ^ Кристенсен, Рональд; Джонсон, Уэсли; Бранскум, Адам; Хэнсон, Тимоти Э. (2010). Байесовские идеи и анализ данных: введение для ученых и статистиков . Хобокен: CRC Press. п. 69. ИСБН 9781439894798.
  19. ^ Иба, Ю. (1989). «Байесовская статистика и статистическая механика». В Такаяме, Х. (ред.). Кооперативная динамика в сложных физических системах . Спрингеровская серия по синергетике. Том. 43. Берлин: Шпрингер. дои : 10.1007/978-3-642-74554-6_60.
  20. ^ Мюллер-Кирстен, HJW (2013). Основы статистической физики (2-е изд.). Сингапур: World Scientific. Глава 6.
  21. ^ Бен-Наим, А. (2007). Энтропия демистифицирована . Сингапур: World Scientific.

Рекомендации