stringtranslate.com

Байесовская линейная регрессия

Байесовская линейная регрессия — это тип условного моделирования , при котором среднее значение одной переменной описывается линейной комбинацией других переменных с целью получения апостериорной вероятности коэффициентов регрессии (а также других параметров, описывающих распределение регрессии ). ) и, в конечном итоге, позволяет прогнозировать регрессию за пределами выборки (часто обозначаемую ) при условии наблюдаемых значений регрессоров (обычно ). Самой простой и наиболее широко используемой версией этой модели является нормальная линейная модель , в которой данное распределено по Гауссу . В этой модели и при определенном выборе априорных вероятностей параметров — так называемых сопряженных априорных вероятностей — апостериорная вероятность может быть найдена аналитически. При более произвольно выбранных априорных значениях апостериорные значения обычно приходится аппроксимировать.

Настройка модели

Рассмотрим стандартную задачу линейной регрессии , в которой мы указываем среднее значение условного распределения заданного вектора -предиктора :

где – вектор, а – независимые и одинаково нормально распределенные случайные величины:

Это соответствует следующей функции правдоподобия :

Обычное решение методом наименьших квадратов используется для оценки вектора коэффициентов с использованием псевдообратного метода Мура – ​​Пенроуза :

где – матрица плана , каждая строка которой представляет собой вектор-предиктор ; и является вектором - столбцом .

Это частотный подход, который предполагает, что имеется достаточно измерений, чтобы сказать что-то значимое о . В байесовском подходе данные дополняются дополнительной информацией в виде априорного распределения вероятностей . Априорное убеждение о параметрах объединяется с функцией правдоподобия данных согласно теореме Байеса , чтобы получить апостериорное убеждение о параметрах и . Априорное значение может принимать различные функциональные формы в зависимости от предметной области и информации, которая доступна априорно .

Поскольку данные включают в себя как и , основное внимание уделяется только распределению при условии обоснования потребностей. Фактически, «полный» байесовский анализ потребовал бы совместного правдоподобия вместе с априорным значением , где символизирует параметры распределения для . Только в предположении (слабой) экзогенности можно учитывать совместную вероятность . [1] Последняя часть обычно игнорируется в предположении непересекающихся наборов параметров. Более того, при классических предположениях считается выбранным (например, в спланированном эксперименте) и, следовательно, имеет известную вероятность без параметров. [2]

С сопряженными априорами

Сопряженное априорное распределение

Для произвольного априорного распределения может не существовать аналитического решения для апостериорного распределения . В этом разделе мы рассмотрим так называемое сопряженное априорное распределение , для которого апостериорное распределение можно получить аналитически.

Априорная функция сопряжена с этой функцией правдоподобия , если она имеет одинаковую функциональную форму относительно и . Поскольку логарифмическое правдоподобие квадратично в , логарифмическое правдоподобие перезаписывается так, что правдоподобие становится нормальным в . Писать

Вероятность теперь переписывается как

Это предполагает форму предшествующего:

обратное гамма-распределение

В обозначениях, введенных в статье об обратном гамма-распределении , это плотность распределения с и с и как априорные значения и соответственно. Эквивалентно, его также можно описать как масштабированное обратное распределение хи-квадрат :

Далее условная априорная плотность является нормальным распределением ,

В обозначениях нормального распределения условное априорное распределение имеет вид

Заднее распределение

Теперь, когда априорное значение указано, апостериорное распределение можно выразить как

После некоторой перестановки [3] апостериорное значение можно переписать так, чтобы апостериорное среднее вектора параметров можно было выразить через оценку наименьших квадратов и априорное среднее , причем сила априорного значения указывается априорным значением. прецизионная матрица

Чтобы оправдать, что это действительно апостериорное среднее, квадратичные члены в экспоненте можно переставить в квадратичную форму в . [4]

Теперь апостериорное распределение можно выразить как произведение нормального распределения на обратное гамма-распределение :

Следовательно, апостериорное распределение можно параметризовать следующим образом.

который иллюстрирует, что байесовский вывод является компромиссом между информацией, содержащейся в априоре, и информацией, содержащейся в выборке.

Модель доказательства

Доказательством модели является вероятность данных с учетом модели . Он также известен как предельное правдоподобие и априорная плотность прогнозирования . Здесь модель определяется функцией правдоподобия и априорным распределением параметров, т.е. Доказательства модели отражают в одном числе, насколько хорошо такая модель объясняет наблюдения. Доказательства модели байесовской линейной регрессии, представленные в этом разделе, можно использовать для сравнения конкурирующих линейных моделей путем сравнения байесовских моделей . Эти модели могут различаться количеством и значениями переменных-предсказателей, а также их априорными значениями параметров модели. Сложность модели уже учтена в доказательствах модели, поскольку она исключает параметры путем интегрирования по всем возможным значениям и .

[5]

Здесь обозначает гамма-функцию . Поскольку мы выбрали сопряженный априор, предельное правдоподобие также можно легко вычислить, вычислив следующее равенство для произвольных значений и .

теоремы Байеса

Другие случаи

В общем, аналитическое выведение апостериорного распределения может оказаться невозможным или непрактичным. Тем не менее, можно аппроксимировать апостериорный метод приближенным байесовским выводом , таким как выборка Монте-Карло [6] или вариационный Байес .

Особый случай называется гребневой регрессией .

Подобный анализ может быть выполнен для общего случая многомерной регрессии, и частично он обеспечивает байесовскую оценку ковариационных матриц : см. Байесовскую многомерную линейную регрессию .

Смотрите также

Примечания

  1. ^ См. Джекман (2009), с. 101.
  2. ^ См. Гельман и др. (2013), с. 354.
  3. ^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) в начале главы, посвященной линейным моделям.
  4. ^ Промежуточные этапы описаны у Fahrmeir et al. (2009) на странице 188.
  5. ^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) на странице 257.
  6. ^ Карлин и Луи (2008) и Гельман и др. (2003) объясняют, как использовать методы выборки для байесовской линейной регрессии.

Рекомендации

Внешние ссылки