В машинном обучении встраивание распределений в ядро (также называемое средним значением ядра или картой средних значений ) представляет собой класс непараметрических методов, в которых распределение вероятностей представляется как элемент воспроизводящего ядра гильбертова пространства (RKHS). [1] Обобщение отображения признаков отдельных точек данных, выполненного в классических ядерных методах , встраивание распределений в бесконечномерные пространства признаков может сохранять все статистические признаки произвольных распределений, позволяя при этом сравнивать и манипулировать распределениями с помощью операций в гильбертовом пространстве, таких как внутренние произведения , расстояния, проекции , линейные преобразования и спектральный анализ . [2] Эта структура обучения является очень общей и может применяться к распределениям в любом пространстве, на котором может быть определена разумная функция ядра (измеряющая сходство между элементами ). Например, были предложены различные ядра для обучения на основе данных, которые представляют собой: векторы в , дискретные классы/категории, строки , графы / сети , изображения, временные ряды , многообразия , динамические системы и другие структурированные объекты. [3] [4] Теория, лежащая в основе вложений ядер распределений, была в основном разработана Алексом Смолой, Ле Сонгом, Артуром Греттоном и Бернхардом Шёлькопфом . Обзор последних работ по вложению ядер распределений можно найти в. [5]
Анализ распределений является основополагающим в машинном обучении и статистике , и многие алгоритмы в этих областях опираются на информационные теоретические подходы, такие как энтропия , взаимная информация или расхождение Кульбака-Лейблера . Однако для оценки этих величин сначала необходимо либо выполнить оценку плотности, либо использовать сложные стратегии разбиения пространства/коррекции смещения, которые обычно невыполнимы для многомерных данных. [6] Обычно методы моделирования сложных распределений опираются на параметрические предположения, которые могут быть необоснованными или сложными в вычислительном отношении (например, модели гауссовой смеси ), в то время как непараметрические методы, такие как оценка плотности ядра (Примечание: сглаживающие ядра в этом контексте имеют другую интерпретацию, чем ядра, обсуждаемые здесь) или представление характеристической функции (через преобразование Фурье распределения), не работают в многомерных условиях. [2]
Методы, основанные на встраивании дистрибутивов в ядро, обходят эти проблемы, а также обладают следующими преимуществами: [6]
- Данные могут быть смоделированы без ограничительных предположений о форме распределений и взаимосвязях между переменными.
- Промежуточная оценка плотности не требуется.
- Практикующие специалисты могут указать свойства распределения, наиболее соответствующие их проблеме (используя предыдущие знания посредством выбора ядра).
- Если используется характеристическое ядро, то вложение может однозначно сохранить всю информацию о распределении, в то время как благодаря трюку с ядром вычисления на потенциально бесконечномерном RKHS могут быть реализованы на практике как простые операции с матрицей Грама .
- Можно доказать не зависящие от размерности скорости сходимости эмпирического среднего ядра (оцененного с использованием выборок из распределения) к ядерному вложению истинного базового распределения.
- Алгоритмы обучения, основанные на этой структуре, демонстрируют хорошую обобщающую способность и конечную выборочную сходимость, при этом часто являясь более простыми и эффективными, чем методы теории информации.
Таким образом, обучение посредством внедрения распределений в ядро предлагает принципиальную замену подходам теории информации и является структурой, которая не только включает в себя многие популярные методы машинного обучения и статистики как частные случаи, но и может привести к совершенно новым алгоритмам обучения.
Определения
Пусть обозначает случайную величину с областью определения и распределением . При заданном симметричном, положительно определенном ядре теорема Мура–Ароншайна утверждает существование единственного RKHS на ( гильбертовом пространстве функций, снабженном скалярным произведением и нормой ), для которого есть воспроизводящее ядро, т.е. в котором элемент удовлетворяет воспроизводящему свойству
В качестве альтернативы можно рассматривать неявное отображение признаков (которое поэтому также называется пространством признаков), так что его можно рассматривать как меру сходства между точками. Хотя мера сходства линейна в пространстве признаков, она может быть весьма нелинейной в исходном пространстве в зависимости от выбора ядра.
Встраивание ядра
Ядерное вложение распределения (также называемое средним значением ядра или картой средних значений ) определяется по формуле: [ 1]
Если допускает квадратично интегрируемую плотность , то , где — интегральный оператор Гильберта–Шмидта . Ядро является характеристическим, если среднее вложение инъективно. [7] Таким образом, каждое распределение может быть уникально представлено в RKHS, и все статистические особенности распределений сохраняются при вложении ядра, если используется характеристическое ядро.
Эмпирическое встраивание ядра
Приведенные обучающие примеры, взятые независимо и одинаково распределенные (iid) из ядра, можно эмпирически оценить как
Совместное распределение встраивания
Если обозначает другую случайную величину (для простоты предположим, что область определения также имеет то же ядро , которое удовлетворяет ), то совместное распределение можно отобразить в пространство признаков тензорного произведения с помощью [2]
В силу эквивалентности тензора и линейного отображения это совместное вложение можно интерпретировать как нецентрированный оператор кросс-ковариации , из которого кросс-ковариация функций может быть вычислена как [8]
Учитывая пары обучающих примеров, взятых из iid , мы также можем эмпирически оценить вложение ядра совместного распределения с помощью
Вложение условного распределения
Учитывая условное распределение, можно определить соответствующее вложение RKHS как [2]
Обратите внимание, что вложение таким образом определяет семейство точек в RKHS, индексированных значениями, принимаемыми переменной условия . Фиксируя определенное значение, мы получаем один элемент в , и поэтому естественно определить оператор
который, учитывая отображение признаков, выводит условное вложение заданного Предполагая, что для всех можно показать, что [8]
Это предположение всегда верно для конечных областей с характеристическими ядрами, но не обязательно справедливо для непрерывных областей. [2] Тем не менее, даже в случаях, когда предположение не выполняется, его все равно можно использовать для аппроксимации условного вложения ядра , и на практике оператор инверсии заменяется его регуляризованной версией (где обозначает единичную матрицу ).
При наличии обучающих примеров оператор условного встраивания эмпирического ядра можно оценить как [2]
где — неявно сформированные матрицы признаков, — матрица Грама для образцов , а — параметр регуляризации, необходимый для предотвращения переобучения .
Таким образом, эмпирическая оценка условного вложения ядра дается взвешенной суммой выборок в пространстве признаков:
где и
Характеристики
- Ожидание любой функции в RKHS можно вычислить как внутреннее произведение с использованием вложения ядра:
- При наличии больших размеров выборки манипуляции с матрицей Грама могут быть вычислительно требовательны. Благодаря использованию низкоранговой аппроксимации матрицы Грама (такой как неполная факторизация Холецкого ), время выполнения и требования к памяти алгоритмов обучения на основе встраивания ядра могут быть радикально сокращены без большой потери точности аппроксимации. [2]
Сходимость эмпирического ядра среднего к истинному распределению вложения
- Если определено таким образом, что принимает значения для всех с (как в случае широко используемых ядер радиальных базисных функций ), то с вероятностью не менее : [6]
- где обозначает единичный шар в и является матрицей Грама с
- Скорость сходимости (в норме RKHS) эмпирического ядра, вложенного в его распределение, равна и не зависит от размерности .
- Таким образом, статистика, основанная на ядерных вложениях, позволяет избежать проклятия размерности , и хотя истинное базовое распределение на практике неизвестно, можно (с высокой вероятностью) получить приближение в пределах истинного ядерных вложений на основе конечной выборки размера .
- Для встраивания условных распределений эмпирическую оценку можно рассматривать как средневзвешенное значение отображений признаков (где веса зависят от значения переменной обусловливания и отражают влияние обусловливания на встраивание ядра). В этом случае эмпирическая оценка сходится к встраиванию условного распределения RKHS со скоростью, если параметр регуляризации уменьшается, как будто более высокие скорости сходимости могут быть достигнуты путем размещения дополнительных предположений на совместном распределении. [2]
Универсальные ядра
- Пусть — компактное метрическое пространство и множество непрерывных функций . Воспроизводящее ядро называется универсальным тогда и только тогда, когда RKHS плотен в , т.е. для любого и всех существует такое, что . [9] Все универсальные ядра , определенные на компактном пространстве, являются характеристическими ядрами, но обратное не всегда верно. [10]
- Пусть — непрерывное инвариантное относительно трансляции ядро с . Тогда теорема Бохнера гарантирует существование единственной конечной борелевской меры (называемой спектральной мерой ) на такой, что
- Для универсальности достаточно, чтобы непрерывная часть в ее единственном разложении Лебега была ненулевой. Кроме того, если
- тогда — спектральная плотность частот в и — преобразование Фурье . Если носитель — все , то — также характеристическое ядро. [11] [12] [13]
- Если индуцирует строго положительно определенную матрицу ядра для любого набора различных точек, то это универсальное ядро. [6] Например, широко используемое ядро гауссовского RBF
- на компактных подмножествах является универсальным.
Выбор параметров для встраивания ядра условного распределения
- Оператор вложения условного распределения эмпирического ядра можно также рассматривать как решение следующей регуляризованной задачи регрессии с наименьшими квадратами (функционально-значной) [14]
- где — норма Гильберта–Шмидта .
- Таким образом, можно выбрать параметр регуляризации , выполнив перекрестную проверку на основе квадратичной функции потерь задачи регрессии.
Правила вероятности как операции в RKHS
В этом разделе показано, как основные вероятностные правила могут быть переформулированы как (мульти)линейные алгебраические операции в рамках встраивания ядра, и он в первую очередь основан на работе Сонга и др. [2] [8]. Приняты следующие обозначения:
- совместное распределение случайных величин
- предельное распределение ; предельное распределение
- условное распределение заданного с соответствующим условным оператором вложения
- предварительное распределение по
- используется для различения распределений, которые включают априорные данные, от распределений , которые не полагаются на априорные данные
На практике все вложения оцениваются эмпирически на основе данных , и предполагается, что набор выборок может быть использован для оценки вложения ядра априорного распределения .
Правило суммы ядра
В теории вероятностей предельное распределение можно вычислить путем интегрирования из совместной плотности (включая априорное распределение по )
Аналог этого правила в фреймворке встраивания ядра гласит, что встраивание RKHS может быть вычислено с помощью
где - вложение ядра В практических реализациях правило суммы ядра принимает следующий вид
где
— эмпирическое ядро вложения априорного распределения, и — матрицы Грама с записями соответственно.
Правило цепочки ядра
В теории вероятностей совместное распределение можно разложить на произведение условных и предельных распределений.
Аналог этого правила в структуре вложения ядра утверждает, что совместное вложение может быть факторизовано как композиция оператора условного вложения с оператором автоковариации, связанным с
где
В практической реализации правило цепочки ядра принимает следующий вид:
Правило Байеса ядра
В теории вероятностей апостериорное распределение можно выразить через априорное распределение и функцию правдоподобия следующим образом:
- где
Аналог этого правила в фреймворке встраивания ядра выражает встраивание ядра условного распределения в терминах операторов встраивания условия, которые изменяются предыдущим распределением.
где из цепного правила:
В практических реализациях ядро правила Байеса принимает следующий вид:
где
В этой структуре используются два параметра регуляризации: для оценки и для оценки конечного условного оператора встраивания
Последняя регуляризация выполняется на квадрате , поскольку может не быть положительно определенной .
Приложения
Измерение расстояния между распределениями
Максимальное среднее расхождение (MMD) является мерой расстояния между распределениями и определяется как расстояние между их вложениями в RKHS [6]
В то время как большинство мер расстояния между распределениями, таких как широко используемое расхождение Кульбака-Лейблера, требуют либо оценки плотности (параметрически или непараметрически), либо стратегий разбиения пространства/коррекции смещения, [6] MMD легко оценивается как эмпирическое среднее, которое концентрируется вокруг истинного значения MMD. Характеристика этого расстояния как максимального среднего расхождения относится к тому факту, что вычисление MMD эквивалентно нахождению функции RKHS, которая максимизирует разницу в ожиданиях между двумя распределениями вероятностей
форма интегральной вероятностной метрики .
Ядерный двухвыборочный тест
При наличии n обучающих примеров из и m выборок из можно сформулировать тестовую статистику на основе эмпирической оценки MMD
для получения двухвыборочного теста [15] нулевой гипотезы о том, что обе выборки происходят из одного и того же распределения (т.е. ) против широкой альтернативы .
Оценка плотности с помощью встраивания ядра
Хотя алгоритмы обучения в фреймворке встраивания ядра обходят необходимость промежуточной оценки плотности, тем не менее можно использовать эмпирическое встраивание для выполнения оценки плотности на основе n выборок, взятых из базового распределения . Это можно сделать, решив следующую задачу оптимизации [6] [16]
- при условии
где максимизация выполняется по всему пространству распределений на Здесь, - это вложение ядра предлагаемой плотности и - энтропийно-подобная величина (например, Энтропия , расхождение KL , расхождение Брегмана ). Распределение, которое решает эту оптимизацию, можно интерпретировать как компромисс между хорошей подгонкой эмпирических ядерных средних значений выборок и при этом распределением значительной части вероятностной массы по всем областям вероятностного пространства (большая часть которых может быть не представлена в обучающих примерах). На практике хорошее приближенное решение сложной оптимизации можно найти, ограничив пространство плотностей кандидатов смесью M распределений кандидатов с регуляризованными пропорциями смешивания. Связи между идеями, лежащими в основе гауссовских процессов , и условными случайными полями можно установить с помощью оценки условных распределений вероятностей таким образом, если рассматривать отображения признаков, связанные с ядром, как достаточную статистику в обобщенных (возможно, бесконечномерных) экспоненциальных семействах . [6]
Измерение зависимости случайных величин
Мера статистической зависимости между случайными величинами и (из любых областей, на которых могут быть определены разумные ядра) может быть сформулирована на основе критерия независимости Гильберта-Шмидта [17]
и может использоваться как принципиальная замена взаимной информации , корреляции Пирсона или любой другой меры зависимости, используемой в алгоритмах обучения. В частности, HSIC может обнаруживать произвольные зависимости (когда характеристическое ядро используется во вложениях, HSIC равен нулю тогда и только тогда, когда переменные независимы ), и может использоваться для измерения зависимости между различными типами данных (например, изображениями и текстовыми подписями). При наличии n iid выборок каждой случайной величины простая несмещенная оценка HSIC без параметров, которая демонстрирует концентрацию вокруг истинного значения, может быть вычислена во времени, [6] где матрицы Грама двух наборов данных аппроксимируются с помощью . Желаемые свойства HSIC привели к формулировке многочисленных алгоритмов, которые используют эту меру зависимости для различных общих задач машинного обучения, таких как: выбор признаков (BAHSIC [18] ), кластеризация (CLUHSIC [19] ) и снижение размерности (MUHSIC [20] ).
HSIC может быть расширен для измерения зависимости нескольких случайных величин. Вопрос о том, когда HSIC захватывает независимость в этом случае, недавно изучался: [21] для более чем двух переменных
- на : характеристическое свойство отдельных ядер остается эквивалентным состоянием.
- в общих областях: характеристическое свойство компонентов ядра необходимо, но недостаточно .
Распространение убеждений ядра
Распространение убеждений является фундаментальным алгоритмом вывода в графических моделях , в которых узлы многократно передают и получают сообщения, соответствующие оценке условных ожиданий. В фреймворке встраивания ядра сообщения могут быть представлены как функции RKHS, а встраивания условного распределения могут применяться для эффективного вычисления обновлений сообщений. При наличии n выборок случайных величин, представленных узлами в марковском случайном поле , входящее сообщение узлу t от узла u может быть выражено как
если предполагается, что он лежит в RKHS. Сообщение обновления распространения убеждения ядра от t к узлу s тогда задается как [2]
где обозначает поэлементное векторное произведение, — множество узлов, соединенных с t, за исключением узла s , — матрицы Грама выборок из переменных соответственно, а — матрица признаков для выборок из .
Таким образом, если входящие сообщения к узлу t являются линейными комбинациями сопоставленных с признаками образцов из , то исходящее сообщение из этого узла также является линейной комбинацией сопоставленных с признаками образцов из . Таким образом, это функциональное представление RKHS обновлений передачи сообщений создает эффективный алгоритм распространения убеждений, в котором потенциалы являются непараметрическими функциями, выведенными из данных, так что можно моделировать произвольные статистические отношения. [2]
Непараметрическая фильтрация в скрытых марковских моделях
В скрытой марковской модели (HMM) двумя ключевыми величинами, представляющими интерес, являются вероятности перехода между скрытыми состояниями и вероятности эмиссии для наблюдений. Используя структуру встраивания условного распределения ядра, эти величины могут быть выражены в терминах выборок из HMM. Серьезным ограничением методов встраивания в этой области является необходимость в обучающих выборках, содержащих скрытые состояния, поскольку в противном случае вывод с произвольными распределениями в HMM невозможен.
Одним из распространенных применений HMM является фильтрация , в которой целью является оценка апостериорного распределения по скрытому состоянию на временном шаге t с учетом истории предыдущих наблюдений из системы. При фильтрации состояние убеждения рекурсивно поддерживается посредством шага прогнозирования (где обновления вычисляются путем исключения предыдущего скрытого состояния), за которым следует шаг кондиционирования (где обновления вычисляются путем применения правила Байеса для условия нового наблюдения). [2] Вложение RKHS состояния убеждения на момент времени t+1 может быть рекурсивно выражено как
вычисляя вложения шага прогнозирования через правило суммы ядра и вложения шага кондиционирования через правило Байеса ядра. Предполагая, что дана обучающая выборка, можно на практике оценить
и фильтрация с внедрением ядра, таким образом, реализуется рекурсивно с использованием следующих обновлений для весов [2]
где обозначают матрицы Грама и соответственно, — матрица переноса Грама, определяемая как и
Поддержка измерительных машин
Машина опорных мер (SMM) является обобщением машины опорных векторов (SVM), в которой обучающие примеры представляют собой распределения вероятностей, сопряженные с метками . [22] SMM решают стандартную задачу двойной оптимизации SVM, используя следующее ожидаемое ядро
которое вычисляется в замкнутой форме для многих общих конкретных распределений (таких как распределение Гаусса) в сочетании с популярными ядрами встраивания (например, ядром Гаусса или полиномиальным ядром), или может быть точно эмпирически оценено из выборок iid с помощью
При определенных вариантах выбора ядра внедрения SMM, применяемый к обучающим примерам, эквивалентен SVM, обученному на образцах , и, таким образом, SMM можно рассматривать как гибкую SVM, в которой различное зависящее от данных ядро (заданное предполагаемой формой распределения ) может быть размещено в каждой обучающей точке. [22]
Адаптация домена при ковариате, цели и условном сдвиге
Целью адаптации домена является формулирование алгоритмов обучения, которые хорошо обобщают, когда обучающие и тестовые данные имеют разные распределения. При наличии обучающих примеров и тестового набора , где неизвестны, обычно предполагаются три типа различий между распределением обучающих примеров и тестовым распределением : [23] [24]
- Сдвиг ковариатов , при котором предельное распределение ковариатов изменяется по областям:
- Сдвиг цели , при котором предельное распределение результатов изменяется по областям:
- Условный сдвиг , в котором остается одинаковым во всех доменах, но условные распределения различаются: . В общем случае наличие условного сдвига приводит к некорректной постановке задачи, и для того, чтобы сделать задачу разрешимой, обычно вводят дополнительное предположение о том, что изменяется только при преобразованиях местоположение - масштаб (LS) .
Используя ядерное встраивание маргинальных и условных распределений, можно сформулировать практические подходы к работе с наличием этих типов различий между учебными и тестовыми доменами. Ковариатный сдвиг может быть учтен путем повторного взвешивания примеров с помощью оценок отношения, полученных непосредственно из ядерных встраиваний маргинальных распределений в каждом домене без какой-либо необходимости явной оценки распределений. [24] Целевой сдвиг, который не может быть обработан аналогичным образом, поскольку в тестовом домене нет доступных образцов из , учитывается путем взвешивания обучающих примеров с использованием вектора , который решает следующую задачу оптимизации (где на практике должны использоваться эмпирические приближения) [23]
- при условии
Чтобы справиться с условным сдвигом масштаба местоположения, можно выполнить LS-преобразование точек обучения для получения новых преобразованных данных обучения (где обозначает поэлементное векторное произведение). Чтобы гарантировать схожие распределения между новыми преобразованными образцами обучения и тестовыми данными, оцениваются путем минимизации следующего эмпирического расстояния встраивания ядра [23]
В общем случае методы встраивания ядра для работы с условным сдвигом LS и целевым сдвигом можно объединить, чтобы найти преобразование с повторным взвешиванием обучающих данных, которое имитирует тестовое распределение, и эти методы могут хорошо работать даже при наличии условных сдвигов, отличных от изменений масштаба местоположения. [23]
Обобщение домена посредством представления инвариантных признаков
При наличии N наборов обучающих примеров, выбранных iid из распределений , целью обобщения домена является формулирование алгоритмов обучения, которые хорошо работают на тестовых примерах, выбранных из ранее неизвестного домена , где данные из тестового домена не были доступны во время обучения. Если предполагается, что условные распределения относительно схожи во всех доменах, то обучающийся, способный к обобщению домена, должен оценить функциональную связь между переменными, которая устойчива к изменениям в маргинальных значениях . Основываясь на ядерных вложениях этих распределений, анализ инвариантных компонент домена (DICA) представляет собой метод, который определяет преобразование обучающих данных, которое минимизирует разницу между маргинальными распределениями, сохраняя при этом общее условное распределение, общее для всех обучающих доменов. [25] Таким образом, DICA извлекает инварианты , признаки, которые переносятся между доменами, и может рассматриваться как обобщение многих популярных методов сокращения размерности, таких как ядерный главный компонентный анализ , анализ компонентов переноса и обратная регрессия оператора ковариации. [25]
Определение распределения вероятностей на RKHS с помощью
DICA измеряет различия между доменами с помощью дисперсии распределения , которая вычисляется как
где
так же как и матрица Грама над распределениями, из которых отбираются обучающие данные. Находя ортогональное преобразование в низкоразмерное подпространство B (в пространстве признаков), которое минимизирует дисперсию распределения, DICA одновременно гарантирует, что B выравнивается с базами центрального подпространства C, для которого становится независимым от заданного во всех доменах. При отсутствии целевых значений может быть сформулирована неконтролируемая версия DICA, которая находит низкоразмерное подпространство, которое минимизирует дисперсию распределения, одновременно максимизируя дисперсию (в пространстве признаков) во всех доменах (вместо сохранения центрального подпространства). [25]
Регрессия распределения
В регрессии распределения цель состоит в том, чтобы регрессировать от распределений вероятностей к действительным числам (или векторам). Многие важные задачи машинного обучения и статистики вписываются в эту структуру, включая многоэкземплярное обучение и проблемы оценки точек без аналитического решения (такие как оценка гиперпараметров или энтропии ). На практике наблюдаемыми являются только выборки из выборочных распределений, и оценки должны полагаться на сходства, вычисленные между наборами точек . Регрессия распределения успешно применялась, например, в контролируемом обучении энтропии и прогнозировании аэрозолей с использованием многоспектральных спутниковых изображений. [26]
При наличии обучающих данных, где мешок содержит образцы из распределения вероятностей , а выходная метка — , можно решить задачу регрессии распределения, взяв вложения распределений и изучив регрессор из вложений на выходах. Другими словами, можно рассмотреть следующую задачу регрессии ядра гребня
где
с ядром на домене -s , является ядром на вложенных распределениях и является RKHS, определяемым . Примерами для являются линейное ядро , гауссовское ядро , экспоненциальное ядро , ядро Коши , обобщенное ядро t-Стьюдента или ядро обратных мультиквадрик .
Прогноз нового распределения имеет простую аналитическую форму
где , , , . При условиях умеренной регулярности можно показать, что эта оценка является последовательной и может достигать одноэтапной выборочной (как если бы был доступ к истинному -s) минимаксной оптимальной скорости. [26] В целевой функции -s являются действительными числами; результаты также могут быть распространены на случай, когда -s являются -мерными векторами или, в более общем случае, элементами сепарабельного гильбертова пространства с использованием операторнозначных ядер.
Пример
В этом простом примере, взятом из Song et al., [2] , предполагается, что это дискретные случайные величины , которые принимают значения в наборе , а ядро выбрано как дельта-функция Кронекера , поэтому . Карта признаков, соответствующая этому ядру, является стандартным базисным вектором . Вложения ядер таких распределений, таким образом, являются векторами предельных вероятностей, в то время как вложения совместных распределений в этой настройке являются матрицами, определяющими таблицы совместных вероятностей, и явная форма этих вложений есть
Когда для всех , оператор вложения условного распределения,
в этой настройке есть таблица условных вероятностей
и
Таким образом, вложения условного распределения при фиксированном значении могут быть вычислены как
В этой дискретно-значной настройке с дельта-ядром Кронекера правило суммы ядра становится
Правило цепочки ядер в этом случае задается выражением
Ссылки
- ^ ab A. Smola, A. Gretton, L. Song, B. Schölkopf. (2007). Вложение в гильбертово пространство для распределений Архивировано 15 декабря 2013 г. в Wayback Machine . Теория алгоритмического обучения: 18-я международная конференция . Springer: 13–31.
- ^ abcdefghijklmn Л. Сонг, К. Фукумизу, Ф. Динуццо, А. Греттон (2013). Ядерные вложения условных распределений: унифицированная структура ядра для непараметрического вывода в графических моделях. Журнал обработки сигналов IEEE 30 : 98–111.
- ^ J. Shawe-Taylor, N. Christianini. (2004). Методы ядра для анализа шаблонов . Cambridge University Press, Кембридж, Великобритания.
- ^ Т. Хофманн, Б. Шёлькопф, А. Смола. (2008). Методы ядра в машинном обучении. Анналы статистики 36 (3):1171–1220.
- ^ Muandet, Krikamol; Fukumizu, Kenji; Sriperumbudur, Bharath; Schölkopf, Bernhard (2017-06-28). "Kernel Mean Embedding of Distributions: A Review and Beyond". Основы и тенденции в машинном обучении . 10 (1–2): 1–141. arXiv : 1605.09522 . doi :10.1561/2200000060. ISSN 1935-8237.
- ^ abcdefghi L. Song. (2008) Обучение с помощью вложения распределений в гильбертово пространство. Кандидатская диссертация, Сиднейский университет.
- ^ K. Fukumizu, A. Gretton, X. Sun и B. Schölkopf (2008). Ядерные меры условной независимости. Advances in Neural Information Processing Systems 20 , MIT Press, Cambridge, MA.
- ^ abc L. Song, J. Huang, AJ Smola, K. Fukumizu. (2009). Вложения условных распределений в гильбертовом пространстве. Proc. Int. Conf. Machine Learning . Montreal, Canada: 961–968.
- ^ * Стейнварт, Инго; Кристманн, Андреас (2008). Машины опорных векторов . Нью-Йорк: Спрингер. ISBN 978-0-387-77241-7.
- ^ Шриперумбудур, Б.К.; Фукумизу, К.; Ланкриет, Г.Р.Г. (2011). «Универсальность, характеристические ядра и вложение мер RKHS». Журнал исследований машинного обучения . 12 (70).
- ^ Лян, Перси (2016), CS229T/STAT231: Статистическая теория обучения (PDF) , заметки лекций Стэнфорда
- ^ Sriperumbudur, BK; Fukumizu, K.; Lanckriet, GRG (2010). О связи между универсальностью, характеристическими ядрами и вложением мер RKHS. Труды Тринадцатой международной конференции по искусственному интеллекту и статистике. Италия.
- ^ Микелли, CA; Сюй, Y.; Чжан, H. (2006). «Универсальные ядра». Журнал исследований машинного обучения . 7 (95): 2651–2667.
- ^ S. Grunewalder, G. Lever, L. Baldassarre, S. Patterson, A. Gretton, M. Pontil. (2012). Условные средние вложения как регрессоры. Proc. Int. Conf. Machine Learning : 1823–1830.
- ^ A. Gretton, K. Borgwardt, M. Rasch, B. Schölkopf, A. Smola. (2012). Тест ядра с двумя выборками. Журнал исследований машинного обучения , 13 : 723–773.
- ^ М. Дудик, С. Дж. Филлипс, Р. Э. Шапир. (2007). Оценка распределения максимальной энтропии с обобщенной регуляризацией и ее применение к моделированию распределения видов. Журнал исследований машинного обучения , 8 : 1217–1260.
- ^ A. Gretton, O. Bousquet, A. Smola, B. Schölkopf. (2005). Измерение статистической зависимости с помощью норм Гильберта–Шмидта. Proc. Intl. Conf. on Algorithmic Learning Theory : 63–78.
- ^ Л. Сонг, А. Смола, А. Греттон, К. Боргвардт, Дж. Бедо. (2007). Контролируемый выбор признаков с помощью оценки зависимости. Proc. Intl. Conf. Machine Learning , Omnipress: 823–830.
- ^ Л. Сонг, А. Смола, А. Греттон, К. Боргвардт. (2007). Взгляд на кластеризацию с точки зрения максимизации зависимости. Proc. Intl. Conf. Machine Learning . Omnipress: 815–822.
- ^ Л. Сонг, А. Смола, К. Боргвардт, А. Греттон. (2007). Развертывание цветной максимальной дисперсии. Нейронные системы обработки информации .
- ^ Золтан Сабо, Бхарат К. Шриперумбудур. Характеристические и универсальные ядра тензорного произведения. Журнал исследований машинного обучения , 19:1–29, 2018.
- ^ ab K. Muandet, K. Fukumizu, F. Dinuzzo, B. Schölkopf. (2012). Обучение на основе распределений с помощью машин измерения поддержки. Достижения в области нейронных систем обработки информации : 10–18.
- ^ abcd K. Zhang, B. Schölkopf, K. Muandet, Z. Wang. (2013). Адаптация домена при целевом и условном сдвиге. Журнал исследований машинного обучения, 28 (3): 819–827.
- ^ ab A. Gretton, A. Smola, J. Huang, M. Schmittfull, K. Borgwardt, B. Schölkopf. (2008). Ковариатный сдвиг и локальное обучение путем сопоставления распределений. В J. Quinonero-Candela, M. Sugiyama, A. Schwaighofer, N. Lawrence (ред.). Сдвиг набора данных в машинном обучении , MIT Press, Кембридж, Массачусетс: 131–160.
- ^ abc K. Muandet, D. Balduzzi, B. Schölkopf. (2013). Обобщение предметной области посредством представления инвариантных признаков. 30-я Международная конференция по машинному обучению .
- ^ ab Z. Szabó, B. Sriperumbudur, B. Póczos, A. Gretton. Теория обучения для регрессии распределения. Журнал исследований машинного обучения , 17(152):1–40, 2016.
Внешние ссылки
- Набор инструментов для оценки теории информации (демонстрация регрессии распределения).