stringtranslate.com

Переобучение

Рисунок 1. Зеленая линия представляет собой переоснащенную модель, а черная линия представляет собой регуляризованную модель. Хотя зеленая линия лучше всего соответствует данным обучения, она слишком зависит от этих данных и, вероятно, будет иметь более высокий уровень ошибок в новых невидимых данных, показанных точками с черным контуром, по сравнению с черной линией.
Рисунок 2. Зашумленные (приблизительно линейные) данные аппроксимируются линейной функцией и полиномиальной функцией. Хотя полиномиальная функция идеально подходит, можно ожидать, что линейная функция будет лучше обобщать: если бы две функции использовались для экстраполяции за пределы подобранных данных, линейная функция должна давать лучшие прогнозы.
Рисунок 3. Синяя пунктирная линия представляет модель с недостаточным оснащением. Прямая линия никогда не может соответствовать параболе. Эта модель слишком проста.

В математическом моделировании переоснащение — это «проведение анализа, который слишком близко или точно соответствует определенному набору данных и, следовательно, может не соответствовать дополнительным данным или надежно предсказать будущие наблюдения». [1] Переоснащенная модель — это математическая модель , которая содержит больше параметров , чем можно оправдать данными. [2] В математическом смысле эти параметры представляют собой степень многочлена . Суть переоснащения состоит в том, чтобы неосознанно извлечь часть остаточных вариаций (т. е. шума ) , как если бы эта вариация представляла собой основную структуру модели. [3] : 45 

Недостаточное соответствие происходит, когда математическая модель не может адекватно отразить основную структуру данных. Недостаточно подобранная модель — это модель, в которой отсутствуют некоторые параметры или термины, которые присутствовали бы в правильно заданной модели. [2] Недостаточная подгонка может произойти, например, при подгонке линейной модели к нелинейным данным. Такая модель будет иметь плохую предсказательную эффективность.

Возможность переобучения существует, поскольку критерий, используемый для выбора модели, не совпадает с критерием, используемым для оценки пригодности модели. Например, модель может быть выбрана путем максимизации ее производительности на некотором наборе обучающих данных , но ее пригодность может определяться ее способностью хорошо работать на невидимых данных; затем происходит переобучение, когда модель начинает «запоминать» обучающие данные, а не «учиться» делать обобщения на основе тренда.

В крайнем случае, если количество параметров равно количеству наблюдений или превышает его, то модель может идеально предсказать обучающие данные, просто запомнив данные целиком. (Иллюстрацию см. на рис. 2.) Однако такая модель обычно дает серьезные сбои при составлении прогнозов.

Переоснащение напрямую связано с ошибкой аппроксимации выбранного класса функций и ошибкой оптимизации процедуры оптимизации. Класс функции, который в соответствующем смысле слишком велик по отношению к размеру набора данных, скорее всего, будет переобучен. [4] Даже если подобранная модель не имеет чрезмерного количества параметров, следует ожидать, что подобранная зависимость будет работать менее эффективно на новом наборе данных, чем на наборе данных, используемом для подбора (феномен, иногда известный как в виде усадки ). [2] В частности , значение коэффициента детерминации уменьшится относительно исходных данных.

Чтобы уменьшить вероятность или количество переобучения, доступно несколько методов (например, сравнение моделей , перекрестная проверка , регуляризация , ранняя остановка , обрезка , байесовские априорные вычисления или отсев ). В основе некоторых методов лежит либо (1) явное наложение штрафов за слишком сложные модели, либо (2) проверка способности модели к обобщению путем оценки ее производительности на наборе данных, не используемых для обучения, который, как предполагается, аппроксимирует типичные невидимые данные. с которым столкнется модель.

Статистические выводы

В статистике вывод делается на основе статистической модели , выбранной с помощью некоторой процедуры. Бёрнем и Андерсон в своей часто цитируемой работе по выбору модели утверждают, что во избежание переобучения нам следует придерживаться «принципа бережливости ». [3] Авторы также утверждают следующее. [3] : 32–33 

Переоснащенные модели ... часто не имеют смещения в средствах оценки параметров, но имеют неоправданно большие оцененные (и фактические) отклонения выборки (точность средств оценки низкая по сравнению с тем, чего можно было бы достичь с помощью более экономной модели) . Ложные эффекты лечения, как правило, выявляются, а ложные переменные включаются в переоснащенные модели. ... Модель наилучшего приближения достигается путем правильного балансирования ошибок недостаточного и переоснащения.

Переобучение, скорее всего, станет серьезной проблемой, когда имеется мало теории для проведения анализа, отчасти потому, что тогда существует большое количество моделей для выбора. В книге «Выбор модели и усреднение модели» (2008) об этом говорится так. [5]

Имея набор данных, вы можете подобрать тысячи моделей одним нажатием кнопки, но как выбрать лучшую? При таком большом количестве моделей-кандидатов переобучение представляет собой реальную опасность. Является ли обезьяна, напечатавшая «Гамлета», хорошим писателем?

Регрессия

В регрессионном анализе часто происходит переобучение. [6] В качестве крайнего примера: если в линейной регрессии имеется p переменных с p точками данных, подобранная линия может проходить точно через каждую точку. [7] Для моделей логистической регрессии или моделей пропорциональных рисков Кокса существуют различные эмпирические правила (например, 5–9, [8] 10 [9] и 10–15 [10] — правило, состоящее из 10 наблюдений на каждую независимую переменную, составляет известное как « правило одного из десяти »). В процессе выбора модели регрессии среднеквадратическая ошибка случайной функции регрессии может быть разделена на случайный шум, погрешность аппроксимации и дисперсию оценки функции регрессии. Компромисс смещения и дисперсии часто используется для преодоления моделей переобучения.

При большом наборе объясняющих переменных , которые на самом деле не имеют никакого отношения к прогнозируемой зависимой переменной , некоторые переменные, как правило, будут ошибочно признаны статистически значимыми , и исследователь может, таким образом, сохранить их в модели, тем самым переобучив модель. Это известно как парадокс Фридмана .

Машинное обучение

Рисунок 4. Переобучение/переобучение при обучении с учителем (например, нейронная сеть ). Ошибка обучения показана синим цветом, ошибка проверки — красным, в зависимости от количества циклов обучения. Если ошибка проверки увеличивается (положительный наклон), а ошибка обучения постоянно уменьшается (отрицательный наклон), возможно, произошла ситуация переобучения. Наилучшей прогнозирующей и подходящей моделью будет та, в которой ошибка проверки имеет глобальный минимум.

Обычно алгоритм обучения обучается с использованием некоторого набора «обучающих данных»: примерных ситуаций, для которых известен желаемый результат. Цель состоит в том, чтобы алгоритм также хорошо работал при прогнозировании выходных данных при подаче «данных проверки», которые не встречались во время его обучения.

Переоснащение — это использование моделей или процедур, которые нарушают принцип бритвы Оккама , например, путем включения большего количества регулируемых параметров, чем в конечном итоге оптимально, или использования более сложного подхода, чем в конечном итоге оптимально. В качестве примера, когда имеется слишком много настраиваемых параметров, рассмотрим набор данных, в котором данные обучения для y могут быть адекватно предсказаны с помощью линейной функции двух независимых переменных. Такая функция требует всего три параметра (точка пересечения и два наклона). Замена этой простой функции новой, более сложной квадратичной функцией или новой, более сложной линейной функцией от более чем двух независимых переменных сопряжена с риском: бритва Оккама подразумевает, что любая данная сложная функция априори менее вероятна, чем любая заданная простая функция. функция. Если вместо простой функции выбирается новая, более сложная функция, и если не было достаточно большого прироста в подгонке обучающих данных, чтобы компенсировать увеличение сложности, то новая сложная функция «подгоняется» к данным, а комплексная переоснащается. Функция, скорее всего, будет работать хуже, чем более простая функция, на проверочных данных вне набора обучающих данных, даже если сложная функция работает так же или, возможно, даже лучше, на наборе обучающих данных. [11]

При сравнении различных типов моделей сложность нельзя измерить только путем подсчета количества параметров в каждой модели; Необходимо также учитывать выразительность каждого параметра. Например, нетривиально напрямую сравнить сложность нейронной сети (которая может отслеживать криволинейные связи) с m параметрами с регрессионной моделью с n параметрами. [11]

Переобучение особенно вероятно в тех случаях, когда обучение выполнялось слишком долго или когда примеры обучения редки, что заставляет учащегося приспосабливаться к очень специфическим случайным особенностям обучающих данных, которые не имеют причинно-следственной связи с целевой функцией . В этом процессе переобучения производительность на обучающих примерах по-прежнему увеличивается, а производительность на невидимых данных ухудшается.

В качестве простого примера рассмотрим базу данных розничных покупок, которая включает купленный товар, покупателя, а также дату и время покупки. Легко построить модель, которая будет идеально соответствовать обучающему набору, используя дату и время покупки для прогнозирования других атрибутов, но эта модель вообще не будет обобщаться на новые данные, потому что прошлые события никогда не повторятся.

Обычно говорят, что алгоритм обучения переобучен по сравнению с более простым, если он более точен в подборе известных данных (рефсайт), но менее точен в прогнозировании новых данных (форсайт). Интуитивно понять переоснащение можно из того факта, что информацию из всего прошлого опыта можно разделить на две группы: информацию, актуальную для будущего, и нерелевантную информацию («шум»). При прочих равных условиях, чем сложнее предсказать критерий (т. е. чем выше его неопределенность), тем больше шума существует в прошлой информации, которую необходимо игнорировать. Проблема заключается в том, какую часть игнорировать. Алгоритм обучения, который может снизить риск подгонки шума, называется « робастным ».

Последствия

Переоснащенные генеративные модели могут давать результаты, практически идентичные экземплярам из их обучающего набора. [12]

Наиболее очевидным последствием переоснащения является низкая производительность набора проверочных данных. К другим негативным последствиям относятся:

Средство

Оптимальная функция обычно требует проверки на более крупных или совершенно новых наборах данных. Однако существуют такие методы, как минимальное остовное дерево или время жизни корреляции , которые применяют зависимость между коэффициентами корреляции и временными рядами (шириной окна). Когда ширина окна достаточно велика, коэффициенты корреляции стабильны и больше не зависят от размера ширины окна. Следовательно, корреляционная матрица может быть создана путем расчета коэффициента корреляции между исследуемыми переменными. Топологически эту матрицу можно представить как сложную сеть, в которой визуализируются прямые и косвенные влияния между переменными. Регуляризация отсева также может повысить надежность и, следовательно, уменьшить переобучение за счет вероятностного удаления входных данных в слой.

Недооснащение

Рисунок 5. Красная линия представляет собой недооснащенную модель точек данных, представленных синим цветом. Мы ожидаем увидеть линию в форме параболы, обозначающую кривизну точек данных.
Рисунок 6. Синяя линия представляет собой подобранную модель точек данных, представленных зеленым цветом.

Недостаточное оснащение — это противоположность переобучения, означающее, что статистическая модель или алгоритм машинного обучения слишком упрощены, чтобы точно отразить закономерности в данных. Признаком недостаточного подбора является то, что в текущей используемой модели или алгоритме обнаружена высокая систематическая ошибка и низкая дисперсия (обратная сторона переобучения: низкое смещение и высокая дисперсия ). Это можно получить из компромисса смещения и дисперсии , который представляет собой метод анализа модели или алгоритма на предмет ошибки смещения, ошибки дисперсии и неуменьшаемой ошибки. При высокой систематической ошибке и низкой дисперсии результат модели заключается в том, что она будет неточно представлять точки данных и, следовательно, не сможет предсказать будущие результаты данных (см. Ошибка обобщения ). Показанная на рисунке 5 линейная линия не может представлять все заданные точки данных из-за того, что линия не напоминает кривизну точек. Мы ожидали бы увидеть линию в форме параболы, как показано на рисунках 6 и 1. Как упоминалось ранее, если бы мы использовали рисунок 5 для анализа, мы получили бы ложные прогнозные результаты, противоположные результатам, если бы мы проанализировали рисунок 6.

Бернэм и Андерсон утверждают следующее. [3] : 32 

...недооснащенная модель будет игнорировать некоторую важную воспроизводимую (т. е. концептуально воспроизводимую в большинстве других образцов) структуру данных и, таким образом, не сможет выявить эффекты, которые фактически подтверждаются данными. В этом случае смещение в средствах оценки параметров часто бывает значительным, а дисперсия выборки недооценивается, причем оба фактора приводят к плохому охвату доверительного интервала. Недооснащенные модели имеют тенденцию упускать из виду важные эффекты лечения в экспериментальных условиях.

Решение проблемы недостаточного оснащения

Есть несколько способов борьбы с недостаточностью:

  1. Увеличьте сложность модели. Если модель слишком проста, возможно, придется увеличить ее сложность, добавив больше функций, увеличив количество параметров или используя более гибкую модель. Однако делать это следует осторожно, чтобы избежать переобучения. [14]
  2. Используйте другой алгоритм. Если текущий алгоритм не может уловить закономерности в данных, возможно, придется попробовать другой. Например, для некоторых типов данных нейронная сеть может быть более эффективной, чем модель линейной регрессии. [14]
  3. Увеличьте объем обучающих данных. Если модель не подходит из-за отсутствия данных, может помочь увеличение объема обучающих данных. Это позволит модели лучше отразить основные закономерности в данных. [14]
  4. Регуляризация. Регуляризация — это метод, используемый для предотвращения переобучения путем добавления штрафного члена к функции потерь, который препятствует использованию больших значений параметров. Его также можно использовать для предотвращения недостаточной подгонки за счет контроля сложности модели. [15]
  5. Ансамблевые методы . Ансамблевые методы объединяют несколько моделей для создания более точного прогноза. Это может помочь уменьшить недостаточное соответствие, позволяя нескольким моделям работать вместе для выявления основных закономерностей в данных. [16]
  6. Разработка функций . Разработка функций включает в себя создание новых функций модели из существующих, которые могут быть более актуальными для рассматриваемой проблемы. Это может помочь повысить точность модели и предотвратить подгонку. [14]

Доброкачественное переобучение

Доброкачественное переобучение описывает феномен статистической модели, которая, по-видимому, хорошо обобщает невидимые данные, даже если она идеально подходит для зашумленных обучающих данных (т. е. обеспечивает идеальную точность прогнозирования на обучающем наборе). Это явление представляет особый интерес для глубоких нейронных сетей , но изучается с теоретической точки зрения в контексте гораздо более простых моделей, таких как линейная регрессия . В частности, было показано, что чрезмерная параметризация важна для доброкачественного переобучения в этой ситуации. Другими словами, количество направлений в пространстве параметров, не имеющих значения для прогнозирования, должно значительно превышать размер выборки. [17]

Смотрите также

Примечания

  1. ^ Определение «переоснащения» на OxfordDictionaries.com : это определение предназначено специально для статистики.
  2. ^ abc Everitt BS, Skrondal A. (2010), Кембриджский статистический словарь , Cambridge University Press .
  3. ^ abcd Бернхэм, КП; Андерсон, Д.Р. (2002), Выбор модели и многомодельный вывод (2-е изд.), Springer-Verlag.
  4. ^ Ботту, Леон; Буске, Оливье (30 сентября 2011 г.), «Компромиссы крупномасштабного обучения», Оптимизация для машинного обучения , MIT Press, стр. 351–368, ISBN 978-0-262-29877-3, получено 8 декабря 2023 г.
  5. ^ Класкенс, Г .; Хьорт, Нидерланды (2008), Выбор модели и усреднение модели , издательство Кембриджского университета..
  6. ^ Харрелл, Ф. Е. младший (2001), Стратегии регрессионного моделирования , Springer.
  7. ^ Марта К. Смит (13 июня 2014 г.). «Переобучение». Техасский университет в Остине . Проверено 31 июля 2016 г.
  8. ^ Виттингофф, Э.; Маккалок, CE (2007). «Ослабление правила десяти событий на переменную в логистической регрессии и регрессии Кокса». Американский журнал эпидемиологии . 165 (6): 710–718. дои : 10.1093/aje/kwk052. ПМИД  17182981.
  9. ^ Дрейпер, Норман Р.; Смит, Гарри (1998). Прикладной регрессионный анализ (3-е изд.). Уайли . ISBN 978-0471170822.
  10. ^ Джим Фрост (3 сентября 2015 г.). «Опасность переоснащения регрессионных моделей» . Проверено 31 июля 2016 г.
  11. ^ abcd Хокинс, Дуглас М (2004). «Проблема переобучения». Журнал химической информации и моделирования . 44 (1): 1–12. дои : 10.1021/ci0342472. PMID  14741005. S2CID  12440383.
  12. ↑ Аб Ли, Тимоти Б. (3 апреля 2023 г.). «Иски об авторских правах Stable Diffusion могут стать юридическим потрясением для ИИ». Арс Техника .
  13. ^ Винсент, Джеймс (08 ноября 2022 г.). «Иск, который может переписать правила авторского права ИИ». Грань . Проверено 7 декабря 2022 г.
  14. ^ abcd «ML | Недооснащение и переоснащение». Гики для Гиков . 2017-11-23 . Проверено 27 февраля 2023 г.
  15. ^ Нусрат, Исмоилов; Чан, Сунг-Бон (ноябрь 2018 г.). «Сравнение методов регуляризации в глубоких нейронных сетях». Симметрия . 10 (11): 648. Бибкод : 2018Symm...10..648N. дои : 10.3390/sym10110648 . ISSN  2073-8994.
  16. ^ Фернандес, Хавьер (20 июня 2022 г.). «Введение в ансамблевые методы в машинном обучении». Середина . Проверено 27 февраля 2023 г.
  17. ^ Бартлетт, П.Л., Лонг, П.М., Лугоши, Г., и Циглер, А. (2019). Доброкачественное переобучение в линейной регрессии. Труды Национальной академии наук, 117, 30063–30070.

Рекомендации

дальнейшее чтение

Внешние ссылки