stringtranslate.com

Регрессия ядра

В статистике ядерная регрессия — это непараметрический метод оценки условного ожидания случайной величины . Целью является нахождение нелинейной связи между парой случайных величин X и Y.

В любой непараметрической регрессии условное ожидание переменной относительно переменной можно записать:

где — неизвестная функция.

Регрессия ядра Надарая – Ватсона

Надарая и Уотсон в 1964 году предложили оценивать как локально взвешенное среднее, используя ядро ​​в качестве весовой функции. [1] [2] [3] Оценка Надарая–Уотсона выглядит следующим образом:

где — ядро ​​с полосой пропускания , имеющей порядок не менее 1, то есть .

Вывод

Начиная с определения условного ожидания ,

мы оцениваем совместные распределения f ( x , y ) и f ( x ) с помощью оценки плотности ядра с ядром K :

Получаем:

что является оценкой Надарая-Уотсона.

Оценка ядра Пристли–Чао

где — полоса пропускания (или параметр сглаживания).

Оценка ядра Гассера-Мюллера

где [4]

Пример

Оценочная функция регрессии.

Этот пример основан на канадских данных о поперечной заработной плате, состоящих из случайной выборки, взятой из канадских лент общественного пользования переписи 1971 года для лиц мужского пола с общим образованием (13 класс). Всего 205 наблюдений. [ необходима ссылка ]

На рисунке справа показана оценочная функция регрессии с использованием гауссовского ядра второго порядка вместе с асимптотическими границами изменчивости.

Скрипт для примера

Следующие команды языка программирования R используют npreg()функцию для обеспечения оптимального сглаживания и создания приведенной выше фигуры. Эти команды можно ввести в командной строке с помощью копирования и вставки.

install.packages ( "np" ) библиотека ( np ) # непараметрические данные библиотеки ( cps71 ) прикрепить ( cps71 ) m <- npreg ( logwage ~ age )  plot ( m , plot.errors.method = "асимптотический" , plot.errors.style = "полоса" , ylim = c ( 11 , 15.2 ))    баллы ( возраст , логарифмическая заработная плата , cex = . 25 ) отсоединить ( cps71 )  

Связанный

По словам Дэвида Сальсбурга , алгоритмы, используемые в ядерной регрессии, были независимо разработаны и использованы в нечетких системах : «Нечеткие системы и ядерная регрессия, основанные на плотности ядер, по-видимому, были разработаны совершенно независимо друг от друга, поскольку они представляют собой практически одинаковый компьютерный алгоритм». [5]

Статистическая реализация

Смотрите также

Ссылки

  1. ^ Надарая, EA (1964). «Об оценке регрессии». Теория вероятностей и ее приложения . 9 (1): 141–2. doi :10.1137/1109020.
  2. ^ Уотсон, ГС (1964). «Анализ плавной регрессии». Санкхья: Индийский журнал статистики, серия A. 26 ( 4): 359–372. JSTOR  25049340.
  3. ^ Биренс, Герман Дж. (1994). "Оценка функции регрессии ядра Надарая–Уотсона". Темы в Advanced Econometrics . Нью-Йорк: Cambridge University Press. С. 212–247. ISBN 0-521-41900-X.
  4. ^ Гассер, Тео; Мюллер, Ханс-Георг (1979). "Оценка ядра функций регрессии". Методы сглаживания для оценки кривой (Proc. Workshop, Гейдельберг, 1979) . Lecture Notes in Math. Vol. 757. Springer, Берлин. стр. 23–68. ISBN 3-540-09706-6. МР  0564251.
  5. ^ Salsburg, D. (2002). Леди, дегустирующая чай: как статистика произвела революцию в науке в двадцатом веке . WH Freeman. стр. 290–91. ISBN 0-8050-7134-2.
  6. ^ Горова, И.; Колачек Ю.; Зелинка, Дж. (2012). Ядерное сглаживание в MATLAB: Теория и практика ядерного сглаживания . Сингапур: Мировое научное издательство. ISBN 978-981-4405-48-5.
  7. ^ np: Непараметрические методы сглаживания ядра для смешанных типов данных
  8. ^ Клоке, Джон; МакКин, Джозеф В. (2014). Непараметрические статистические методы с использованием R. CRC Press. стр. 98–106. ISBN 978-1-4398-7343-4.

Дальнейшее чтение

Внешние ссылки