stringtranslate.com

Байесовская многомерная линейная регрессия

В статистике байесовская многомерная линейная регрессия — это байесовский подход к многомерной линейной регрессии , то есть линейная регрессия , при которой прогнозируемый результат представляет собой вектор коррелирующих случайных величин , а не одну скалярную случайную величину. Более общее описание этого подхода можно найти в статье Оценка MMSE .

Подробности

Рассмотрим задачу регрессии, в которой прогнозируемая зависимая переменная представляет собой не один скаляр с действительным знаком , а вектор длины m коррелирующих действительных чисел. Как и в стандартной настройке регрессии, имеется n наблюдений, где каждое наблюдение i состоит из k -1 независимых переменных , сгруппированных в вектор длины k (где была добавлена ​​фиктивная переменная со значением 1, чтобы учесть коэффициент пересечения ). Это можно рассматривать как набор m связанных задач регрессии для каждого наблюдения i : где все наборы ошибок коррелируют. Эквивалентно, ее можно рассматривать как одну задачу регрессии, результатом которой является вектор-строка , а векторы коэффициентов регрессии складываются рядом друг с другом, как показано ниже:

Матрица коэффициентов B представляет собой матрицу, в которой векторы коэффициентов для каждой задачи регрессии расположены горизонтально:

Вектор шума для каждого наблюдения i является нормальным, так что результаты для данного наблюдения коррелируют:

Мы можем записать всю задачу регрессии в матричной форме так: где Y и E — матрицы. Матрица плана X представляет собой матрицу с наблюдениями, расположенными вертикально, как в стандартной настройке линейной регрессии :

Классическое, часто встречающееся линейное решение методом наименьших квадратов состоит в том, чтобы просто оценить матрицу коэффициентов регрессии с использованием псевдообратной задачи Мура-Пенроуза :

Чтобы получить байесовское решение, нам нужно указать условное правдоподобие, а затем найти соответствующее априорное сопряжение. Как и в одномерном случае линейной байесовской регрессии , мы обнаружим, что можем указать естественное условное сопряжение (которое зависит от масштаба).

Давайте запишем наше условное правдоподобие как [1], записав ошибку через и дает

Мы ищем естественное сопряженное априорное значение — совместную плотность , имеющую ту же функциональную форму, что и вероятность. Поскольку вероятность квадратична по , мы переписываем вероятность так, чтобы она была нормальной по (отклонение от классической выборочной оценки).

Используя ту же технику, что и при использовании байесовской линейной регрессии , мы разлагаем экспоненциальный член, используя матричную форму метода суммы квадратов. Здесь, однако, нам также понадобится использовать матричное дифференциальное исчисление ( произведение Кронекера и преобразования векторизации ).

Во-первых, давайте применим сумму квадратов, чтобы получить новое выражение для вероятности:

Мы хотели бы разработать условную форму для априорных значений: где – обратное распределение Уишарта , а – некоторая форма нормального распределения в матрице . Это достигается с помощью преобразования векторизации , которое преобразует вероятность из функции матриц в функцию векторов .

Писать

Пусть где обозначает произведение Кронекера матриц A и B , обобщение внешнего произведения , которое умножает матрицу на матрицу для создания матрицы, состоящей из каждой комбинации произведений элементов из двух матриц.

Тогда это приведет к вероятности, которая является нормальной для .

Имея вероятность в более удобной форме, мы теперь можем найти естественное (условное) сопряженное априорное выражение.

Сопряженное априорное распределение

Естественное сопряжение до использования векторизованной переменной имеет вид: [1] где и

Заднее распределение

Используя приведенное выше априорное значение и правдоподобие, апостериорное распределение можно выразить как: [1] где . Термины, включающие в себя, можно сгруппировать (с ), используя: с

Теперь это позволяет нам записать апостериор в более удобной форме:

Это принимает форму обратного распределения Уишарта , умноженного на нормальное распределение матрицы : и

Параметры этого заднего отдела определяются следующим образом:

Смотрите также

Рекомендации

  1. ^ abc Питер Э. Росси, Грег М. Алленби, Роб Маккалок. Байесовская статистика и маркетинг . Джон Уайли и сыновья, 2012, с. 32.