stringtranslate.com

Полиномиальная регрессия

В статистике полиномиальная регрессия — это форма регрессионного анализа , в которой связь между независимой переменной x и зависимой переменной y моделируется как полином n- й степени относительно x . Полиномиальная регрессия подгоняет нелинейную связь между значением x и соответствующим условным средним значением y , обозначаемым E( y  | x ). Хотя полиномиальная регрессия подгоняет нелинейную модель к данным, как задача статистической оценки она линейна в том смысле, что функция регрессии E( y  |  x ) линейна относительно неизвестных параметров , которые оцениваются по данным . По этой причине полиномиальная регрессия считается частным случаем множественной линейной регрессии . [1]

Объяснительные (независимые) переменные, полученные в результате полиномиального расширения «базовых» переменных, известны как члены более высокой степени. Такие переменные также используются в настройках классификации . [2]

История

Полиномиальные регрессионные модели обычно подгоняются с использованием метода наименьших квадратов . Метод наименьших квадратов минимизирует дисперсию несмещенных оценок коэффициентов в условиях теоремы Гаусса-Маркова . Метод наименьших квадратов был опубликован в 1805 году Лежандром и в 1809 году Гауссом . Первый план эксперимента для полиномиальной регрессии появился в статье Жергонна 1815 года . [3] [4] В двадцатом веке полиномиальная регрессия сыграла важную роль в развитии регрессионного анализа , с большим акцентом на вопросах дизайна и вывода . [5] Совсем недавно использование полиномиальных моделей было дополнено другими методами, при этом неполиномиальные модели имели преимущества для некоторых классов задач. [ необходима ссылка ]

Определение и пример

Кубическая полиномиальная регрессия, соответствующая смоделированному набору данных. Доверительная полоса представляет собой 95%-ную одновременную доверительную полосу, построенную с использованием подхода Шеффе .

Целью регрессионного анализа является моделирование ожидаемого значения зависимой переменной y в терминах значения независимой переменной (или вектора независимых переменных) x . В простой линейной регрессии модель

используется, где ε — ненаблюдаемая случайная ошибка со средним значением, равным нулю, обусловленная скалярной переменной x . В этой модели для каждого единичного увеличения значения x условное ожидание y увеличивается на β 1 единиц.

Во многих случаях такая линейная зависимость может не соблюдаться. Например, если мы моделируем выход химического синтеза в зависимости от температуры, при которой происходит синтез, мы можем обнаружить, что выход улучшается за счет увеличения количества для каждой единицы повышения температуры. В этом случае мы могли бы предложить квадратичную модель вида

В этой модели при повышении температуры от x до x  + 1 единиц ожидаемый выход изменяется на (это можно увидеть, заменив x в этом уравнении на x + 1 и вычтя уравнение с x из уравнения с x + 1.) Для бесконечно малых изменений x влияние на y определяется полной производной по x : Тот факт, что изменение выхода зависит от x , делает связь между x и y нелинейной, даже если модель линейна по оцениваемым параметрам.

В общем случае мы можем смоделировать ожидаемое значение y как полином n- й степени, что даст общую модель полиномиальной регрессии

Удобно, что все эти модели линейны с точки зрения оценки , поскольку функция регрессии линейна относительно неизвестных параметров β 0 , β 1 , .... Поэтому для анализа наименьших квадратов вычислительные и выводные проблемы полиномиальной регрессии могут быть полностью решены с использованием методов множественной регрессии . Это делается путем рассмотрения xx 2 , ... как отдельных независимых переменных в модели множественной регрессии.

Матричная форма и расчет оценок

Модель полиномиальной регрессии

может быть выражена в матричной форме в терминах матрицы дизайна , вектора отклика , вектора параметров и вектора случайных ошибок. i -я строка и будет содержать значения x и y для i -й выборки данных. Тогда модель может быть записана как система линейных уравнений :

что при использовании чисто матричной записи записывается как

Вектор оценочных коэффициентов полиномиальной регрессии (с использованием обычного метода наименьших квадратов ) равен

предполагая m < n, что требуется для того, чтобы матрица была обратимой; тогда, поскольку является матрицей Вандермонда , условие обратимости гарантированно выполняется, если все значения различны. Это единственное решение наименьших квадратов.

Расширенные формулы

Приведенные выше матричные уравнения хорошо объясняют поведение полиномиальной регрессии. Однако для физической реализации полиномиальной регрессии для набора пар точек xy полезно больше подробностей. Приведенные ниже матричные уравнения для полиномиальных коэффициентов расширяются из теории регрессии без вывода и легко реализуются. [6] [7] [8]

После решения приведенной выше системы линейных уравнений относительно полином регрессии может быть построен следующим образом:

Интерпретация

Хотя полиномиальная регрессия технически является частным случаем множественной линейной регрессии, интерпретация подобранной модели полиномиальной регрессии требует несколько иной перспективы. Часто бывает трудно интерпретировать отдельные коэффициенты в подгонке полиномиальной регрессии, поскольку базовые мономы могут быть сильно коррелированы. Например, x и x 2 имеют корреляцию около 0,97, когда x равномерно распределен на интервале (0, 1). Хотя корреляцию можно уменьшить с помощью ортогональных полиномов , обычно более информативно рассматривать подобранную функцию регрессии в целом. Затем можно использовать точечные или одновременные доверительные интервалы для получения представления о неопределенности в оценке функции регрессии.

Альтернативные подходы

Полиномиальная регрессия является одним из примеров регрессионного анализа, использующего базисные функции для моделирования функциональной связи между двумя величинами. Более конкретно, она заменяет линейную регрессию полиномиальным базисом , например . Недостатком полиномиальных базисов является то, что базисные функции являются «нелокальными», что означает, что подобранное значение y при заданном значении x  =  x 0 сильно зависит от значений данных с x, далеким от x 0 . [9] В современной статистике полиномиальные базисные функции используются вместе с новыми базисными функциями , такими как сплайны , радиальные базисные функции и вейвлеты . Эти семейства базисных функций предлагают более экономичную подгонку для многих типов данных.

Целью полиномиальной регрессии является моделирование нелинейной связи между независимыми и зависимыми переменными (технически, между независимой переменной и условным средним зависимой переменной). Это похоже на цель непараметрической регрессии , которая направлена ​​на захват нелинейных регрессионных связей. Поэтому непараметрические регрессионные подходы, такие как сглаживание, могут быть полезными альтернативами полиномиальной регрессии. Некоторые из этих методов используют локализованную форму классической полиномиальной регрессии. [10] Преимущество традиционной полиномиальной регрессии заключается в том, что может быть использована выводная структура множественной регрессии (это также справедливо при использовании других семейств базисных функций, таких как сплайны).

Последней альтернативой является использование ядерных моделей, таких как регрессия опорных векторов с полиномиальным ядром .

Если остатки имеют неравную дисперсию , для учета этого можно использовать оценку методом наименьших квадратов . [11]

Смотрите также

Примечания

Ссылки

  1. ^ "Реализация полиномиальной регрессии". GeeksforGeeks . 2018-10-03 . Получено 2024-08-25 .
  2. ^ Инь-Вэнь Чанг; Чо-Джуй Хси; Кай-Вэй Чанг; Майкл Ринггаард; Чи-Джен Линь (2010). «Обучение и тестирование отображений полиномиальных данных низкой степени с помощью линейного SVM». Журнал исследований машинного обучения . 11 : 1471–1490.
  3. ^ Gergonne, JD (ноябрь 1974 г.) [1815]. «Применение метода наименьших квадратов к интерполяции последовательностей». Historia Mathematica . 1 (4) (Перевод Ральфа Сент-Джона и С.М. Стиглера с французского издания 1815 г.): 439–447. doi :10.1016/0315-0860(74)90034-2.
  4. ^ Стиглер, Стивен М. (ноябрь 1974 г.). «Статья Жергонна 1815 года о планировании и анализе экспериментов по полиномиальной регрессии». Historia Mathematica . 1 (4): 431–439. doi :10.1016/0315-0860(74)90033-0.
  5. ^ Смит, Кирстин (1918). «О стандартных отклонениях скорректированных и интерполированных значений наблюдаемой полиномиальной функции и ее константах и ​​о руководстве, которое они дают для правильного выбора распределения наблюдений». Biometrika . 12 (1/2): 1–85. doi :10.2307/2331929. JSTOR  2331929.
  6. ^ Muthukrishnan, Gowri (17 июня 2018 г.). "Математика за полиномиальной регрессией, Muthukrishnan". Maths behind Polynomial regression . Получено 30 января 2024 г.
  7. ^ "Математика полиномиальной регрессии". Полиномиальная регрессия, класс регрессии PHP .
  8. ^ Девор, Джей Л. (1995). Вероятность и статистика для инженерии и наук (4-е изд.). США: Brooks/Cole Publishing Company. стр. 539–542. ISBN 0-534-24264-2.
  9. ^ Такое "нелокальное" поведение является свойством аналитических функций , которые не являются постоянными (везде). Такое "нелокальное" поведение широко обсуждалось в статистике:
    • Маги, Лонни (1998). «Нелокальное поведение в полиномиальных регрессиях». Американский статистик . 52 (1): 20–22. doi :10.2307/2685560. JSTOR  2685560.
  10. ^ Фань, Цзяньцин (1996). Локальное полиномиальное моделирование и его применение: от линейной регрессии к нелинейной регрессии . Монографии по статистике и прикладной вероятности. Chapman & Hall/CRC. ISBN 978-0-412-98321-4.
  11. ^ Конте, SD; Де Бур, C. (2018). Элементарный численный анализ: алгоритмический подход. Классика прикладной математики. Общество промышленной и прикладной математики (SIAM, 3600 Market Street, Floor 6, Philadelphia, PA 19104). стр. 259. ISBN 978-1-61197-520-8. Получено 28.08.2020 .
  12. ^ Стивенсон, Кристофер. "Учебник: Полиномиальная регрессия в Excel". Facultystaff.richmond.edu . Получено 22 января 2017 г. .

Внешние ссылки