stringtranslate.com

Сложность Радемахера

В теории вычислительного обучения ( машинное обучение и теория вычислений ) сложность Радемахера , названная в честь Ганса Радемахера , измеряет богатство класса множеств относительно распределения вероятностей . Эту концепцию также можно распространить на вещественнозначные функции.

Определения

Радемахеровская сложность множества

Для данного набора сложность Радемахера A определяется следующим образом: [1] [2] : 326 

где – независимые случайные величины, полученные из распределения Радемахера , т.е. для , и . Некоторые авторы берут абсолютное значение суммы перед взятием супремума, но если она симметрична , это не имеет значения.

Радемахеровская сложность функционального класса

Пусть это выборка точек и рассмотрим функциональный класс вещественных функций над . Тогда эмпирическая сложность Радемахера данного определяется как:

Это также можно записать, используя предыдущее определение: [2] : 326 

где обозначает композицию функции , т.е.:

Пусть – распределение вероятностей по . Сложность класса функций по Радемахеру относительно размера выборки равна:

где вышеуказанное ожидание берется за одинаково независимо распределенную (iid) выборку, сгенерированную в соответствии с .

Интуиция

Сложность Радемахера обычно применяется к функциональному классу моделей, которые используются для классификации, с целью измерения их способности классифицировать точки, взятые из вероятностного пространства с произвольными обозначениями. Когда класс функций достаточно богат, он содержит функции, которые могут соответствующим образом адаптироваться к каждому расположению меток, моделируемому случайным отбором в соответствии с ожиданием, так что это количество в сумме максимизируется.

Примеры

1. содержит один вектор, например, . Затем:

То же самое верно для каждого класса одноэлементных гипотез. [3] : 56 

2. содержит два вектора, например, . Затем:

Использование сложности Радемахера

Сложность Радемахера можно использовать для получения зависящих от данных верхних границ обучаемости функциональных классов. Интуитивно понятно, что функциональный класс с меньшей сложностью Радемахера легче изучить.

Ограничение репрезентативности

В машинном обучении желательно иметь обучающий набор , который представляет истинное распределение некоторых выборочных данных . Это можно оценить количественно, используя понятие репрезентативности . Обозначим через распределение вероятностей , из которого взяты выборки. Обозначим через набор гипотез (потенциальные классификаторы) и обозначим соответствующий набор функций ошибок, т. е. для каждой гипотезы существует функция , которая отображает каждую обучающую выборку (признаки, метку) в ошибку классификатора (примечание в в этом случае гипотеза и классификатор используются как взаимозаменяемые). Например, в случае, когда представлен двоичный классификатор, функция ошибок представляет собой функцию потерь 0–1, т. е. функция ошибок возвращает 0, если правильно классифицирует выборку, и 1 в противном случае. Мы опускаем индекс и пишем вместо него , когда основная гипотеза не имеет значения. Определять:

– ожидаемая ошибка некоторой функции ошибок реального распределения ;
– предполагаемая ошибка некоторой функции ошибок на выборке .

Репрезентативность выборки по отношению к и определяется как:

Меньшая репрезентативность лучше, поскольку она дает возможность избежать переобучения : это означает, что истинная ошибка классификатора не намного превышает его расчетную ошибку, и поэтому выбор классификатора с низкой расчетной ошибкой гарантирует, что истинная ошибка также будет низкий. Однако обратите внимание, что понятие репрезентативности относительно и, следовательно, не может сравниваться между отдельными выборками.

Ожидаемая репрезентативность выборки может быть ограничена сверху сложностью Радемахера функционального класса: [2] : 326 

Ограничение ошибки обобщения

Когда сложность Радемахера невелика, можно изучить класс гипотез H, используя эмпирическую минимизацию риска .

Например, (с функцией двоичной ошибки), [2] : 328  для каждого , с вероятностью не менее , для каждой гипотезы :

Ограничение сложности Радемахера

Поскольку меньшая сложность Радемахера лучше, полезно иметь верхние границы сложности Радемахера различных наборов функций. Следующие правила можно использовать для верхней границы сложности Радемахера набора . [2] : 329–330 

1. Если все векторы в перенесены на постоянный вектор , то Rad( A ) не изменится.

2. Если все векторы в умножаются на скаляр , то Rad( A ) умножается на .

3. . [3] : 56 

4. (Лемма Какаде и Тевари) Если все векторы в управляются функцией Липшица , то Rad( A ) (не более) умножается на константу Липшица функции. В частности, если все векторы в управляются сжимающим отображением , то Rad( A ) строго уменьшается.

5. Радемахеровская сложность выпуклой оболочки равна Rad( A ).

6. (Лемма Массара) Радемахеровская сложность конечного множества растет логарифмически с размером множества. Формально, пусть будет набор векторов в , и пусть будет среднее значение векторов в . Затем:

В частности, если — набор двоичных векторов, норма не превышает , поэтому:

Границы, связанные с измерением VC

Пусть — семейство множеств , размерность VC которого равна . Известно, что функция роста ограничена следующим образом:

для всех :

Это означает, что для каждого множества, состоящего не более чем из элементов, . Семейство set можно рассматривать как набор двоичных векторов над . Подстановка этого в лемму Массара дает:

С помощью более продвинутых методов ( оценка энтропии Дадли и верхняя граница Хаусслера [4] ) можно показать, например, что существует константа такая, что любой класс -индикаторных функций с размерностью Вапника-Червоненкиса имеет сложность Радемахера, ограниченную сверху .

Границы, связанные с линейными классами

Следующие границы относятся к линейным операциям над – постоянным набором векторов в . [2] : 332–333. 

1. Определите набор скалярных произведений векторов в с векторами в единичном шаре . Затем:

2. Определить множество скалярных произведений векторов in с векторами единичного шара 1-нормы. Затем:

Границы, связанные с покрытием чисел

Следующая оценка связывает сложность Радемахера набора с его внешним числом покрытия – количеством шаров заданного радиуса, объединение которых содержит . Связка приписывается Дадли. [2] : 338 

Пусть задан набор векторов, длина (норма) которых не превышает . Тогда для каждого целого числа :

В частности, если лежит в d -мерном подпространстве , то:

Подстановка этого значения в предыдущую оценку дает следующую оценку сложности Радемахера:

Гауссова сложность

Гауссова сложность — это аналогичная сложность с аналогичным физическим смыслом, и ее можно получить из сложности Радемахера с использованием случайных величин вместо , где — гауссовские случайные величины i.id с нулевым средним и дисперсией 1, т.е. Известно, что сложности Гаусса и Радемахера эквивалентны с точностью до логарифмических множителей.

Эквивалентность Радемахера и Гауссовой сложности.

Для данного набора справедливо следующее соотношение [5] : Где - гауссова сложность A. В качестве примера рассмотрим радмахеровскую и гауссовскую сложности шара L1. Сложность Радемахера равна ровно 1, тогда как гауссова сложность имеет порядок (что можно показать, применяя известные свойства супремумов набора субгауссовских случайных величин). [5]

Рекомендации

  1. Балкан, Мария-Флорина (15–17 ноября 2011 г.). «Теория машинного обучения – сложность Радемахера» (PDF) . Проверено 10 декабря 2016 г. .
  2. ^ abcdefg Глава 26 в Шалев-Шварце, Шай; Бен-Давид, Шай (2014). Понимание машинного обучения – от теории к алгоритмам . Издательство Кембриджского университета. ISBN 9781107057135.
  3. ^ аб Мори, Мехриар ; Ростамизаде, Афшин; Талвалкар, Амит (2012). Основы машинного обучения . США, Массачусетс: MIT Press. ISBN 9780262018258.
  4. ^ Буске, О. (2004). Введение в статистическую теорию обучения. Биологическая кибернетика , 3176 (1), 169–207. дои : 10.1007/978-3-540-28650-9_8
  5. ^ аб Уэйнрайт, Мартин (2019). Многомерная статистика: неасимптотическая точка зрения. Кембридж, Великобритания. стр. Упражнение 5.5. ISBN 978-1-108-62777-1. ОСЛК  1089254580.{{cite book}}: CS1 maint: location missing publisher (link)