stringtranslate.com

Мультиклассовая классификация

В машинном обучении и статистической классификации мультиклассовая классификация или полиномиальная классификация — это проблема классификации экземпляров в один из трех или более классов (классификация экземпляров в один из двух классов называется бинарной классификацией ).

Хотя многие алгоритмы классификации (особенно полиномиальная логистическая регрессия ) естественным образом допускают использование более двух классов, некоторые из них по своей природе являются двоичными алгоритмами; однако их можно превратить в полиномиальные классификаторы с помощью различных стратегий.

Классификацию мультиклассов не следует путать с классификацией по нескольким меткам , где для каждого экземпляра необходимо прогнозировать несколько меток.

Общие стратегии

Существующие методы многоклассовой классификации можно разделить на

Преобразование в двоичный формат

В этом разделе обсуждаются стратегии сведения проблемы мультиклассовой классификации к множественным задачам бинарной классификации. Его можно разделить на один против остальных и один против одного . Методы, разработанные на основе сведения многоклассовой задачи к множеству бинарных задач, также можно назвать методами преобразования проблем.

Один против остальных

Стратегия «один против всех» [2] : 182, 338  (OvR или «один против всех» , OvA или «один против всех », OAA) предполагает обучение одного классификатора для каждого класса, при этом образцы этого класса считаются положительными. образцы и все остальные образцы как отрицательные. Эта стратегия требует, чтобы базовые классификаторы выдавали действительную оценку для своего решения (см. также правило оценки ), а не просто метку класса; Метки дискретных классов сами по себе могут привести к неоднозначности, когда для одной выборки прогнозируется несколько классов. [2] : 182  [примечание 1]

В псевдокоде алгоритм обучения учащегося OvR, построенного на основе учащегося бинарной классификации L , выглядит следующим образом:

Входы:
  • L — обучающийся (алгоритм обучения бинарных классификаторов)
  • образцы Х
  • метки y , где y i ∈ {1, … K } — метка выборки X i
Выход:
  • список классификаторов f k для k ∈ {1, …, K }
Процедура:
  • Для каждого k из {1, …, K }
    • Создайте новый вектор меток z , где z i = y i, если y i = k , и z i = 0 в противном случае.
    • Примените L к X , z , чтобы получить f k

Принятие решений означает применение всех классификаторов к невидимой выборке x и предсказание метки k , для которой соответствующий классификатор сообщает наивысший показатель достоверности:

Хотя эта стратегия популярна, она представляет собой эвристику , имеющую ряд проблем. Во-первых, шкала доверительных значений может различаться в зависимости от бинарных классификаторов. Во-вторых, даже если распределение классов в обучающем наборе сбалансировано, обучающиеся с бинарной классификацией видят несбалансированные распределения, потому что обычно набор отрицательных значений, которые они видят, намного больше, чем набор положительных значений. [2] : 338 

Один против одного

При сокращении «один на один» (OvO) обучается K ( K - 1)/2 бинарных классификаторов для K -сторонней многоклассовой задачи; каждый получает образцы пары классов из исходного обучающего набора и должен научиться различать эти два класса. Во время прогнозирования применяется схема голосования: все классификаторы K ( K - 1)/2 применяются к невидимой выборке, и класс, получивший наибольшее количество прогнозов «+1», прогнозируется комбинированным классификатором. [2] : 339 

Как и OvR, OvO страдает от двусмысленности, поскольку некоторые области его входного пространства могут получать одинаковое количество голосов. [2] : 183 

Расширение из двоичного файла

В этом разделе обсуждаются стратегии расширения существующих бинарных классификаторов для решения задач многоклассовой классификации. Было разработано несколько алгоритмов на основе нейронных сетей , деревьев решений , k-ближайших соседей , наивного Байеса , машин опорных векторов и машин экстремального обучения для решения задач многоклассовой классификации. Эти типы методов также можно назвать методами адаптации алгоритмов.

Нейронные сети

Мультиклассовые перцептроны обеспечивают естественное расширение проблемы мультиклассов. Вместо одного нейрона в выходном слое с двоичным выходом можно использовать N двоичных нейронов, что приведет к многоклассовой классификации. На практике последний уровень нейронной сети обычно представляет собой функциональный уровень softmax , который представляет собой алгебраическое упрощение N логистических классификаторов, нормализованных для каждого класса по сумме N-1 других логистических классификаторов.

Экстремальные обучающие машины

Машины экстремального обучения (ELM) — это особый случай однослойных нейронных сетей прямого распространения (SLFN), в которых входные веса и смещения скрытых узлов могут выбираться случайным образом. В ELM внесено множество вариантов и разработок для многоклассовой классификации.

k-ближайшие соседи

k-ближайшие соседи kNN считается одним из старейших алгоритмов непараметрической классификации. Чтобы классифицировать неизвестный пример, измеряется расстояние от этого примера до любого другого обучающего примера. Определяются k наименьших расстояний, и класс, наиболее представленный этими k ближайшими соседями, считается меткой выходного класса.

Наивный Байес

Наивный Байес — успешный классификатор, основанный на принципе максимума апостериори (MAP). Этот подход естественным образом расширяется на случай наличия более двух классов и, как было показано, работает хорошо, несмотря на лежащее в его основе упрощающее предположение об условной независимости .

Деревья решений

Обучение дереву решений — мощный метод классификации. Дерево пытается вывести разделение обучающих данных на основе значений доступных функций, чтобы получить хорошее обобщение. Алгоритм может естественным образом решать задачи бинарной или многоклассовой классификации. Листовые узлы могут относиться к любому из соответствующих классов K.

Машины опорных векторов

Машины опорных векторов основаны на идее максимизации запаса, т.е. максимизации минимального расстояния от разделяющей гиперплоскости до ближайшего примера. Базовая SVM поддерживает только двоичную классификацию, но были предложены расширения для обработки и случая многоклассовой классификации. В этих расширениях к задаче оптимизации добавляются дополнительные параметры и ограничения для разделения различных классов.

Мультивыраженное программирование

Программирование с использованием нескольких выражений (MEP) — ​​это эволюционный алгоритм создания компьютерных программ (который также можно использовать для задач классификации). У MEP есть уникальная особенность: она кодирует несколько программ в одной хромосоме. Каждую из этих программ можно использовать для генерации выходных данных для класса, что делает MEP естественным образом подходящим для решения задач классификации нескольких классов.

Иерархическая классификация

Иерархическая классификация решает проблему многоклассовой классификации путем разделения выходного пространства, т.е. на дерево . Каждый родительский узел делится на несколько дочерних узлов, и процесс продолжается до тех пор, пока каждый дочерний узел не будет представлять только один класс. Было предложено несколько методов, основанных на иерархической классификации.

Парадигмы обучения

Основываясь на парадигмах обучения, существующие методы многоклассовой классификации можно разделить на пакетное обучение и онлайн-обучение . Алгоритмы пакетного обучения требуют, чтобы все образцы данных были доступны заранее. Он обучает модель, используя все обучающие данные, а затем прогнозирует тестовую выборку, используя найденное соотношение. С другой стороны, алгоритмы онлайн-обучения постепенно строят свои модели в последовательных итерациях. На итерации t онлайн-алгоритм получает выборку x t и прогнозирует ее метку ŷ t, используя текущую модель; затем алгоритм получает y t , истинную метку x t и обновляет свою модель на основе пары выборка-метка: (x t , y t ). Недавно была разработана новая парадигма обучения, называемая прогрессивной техникой обучения. [3] Метод прогрессивного обучения способен не только учиться на новых образцах, но также способен изучать новые классы данных, сохраняя при этом полученные знания. [4]

Смотрите также

Примечания

  1. ^ В классификации по нескольким меткам OvR известен как бинарная релевантность , и прогнозирование нескольких классов считается особенностью, а не проблемой.

Рекомендации

  1. ^ Мохамед, Али (2005). «Обзор методов многоклассовой классификации». Технический отчет, Калифорнийский технологический институт .
  2. ^ abcde Bishop, Кристофер М. (2006). Распознавание образов и машинное обучение . Спрингер.
  3. ^ Венкатесан, Раджасекар; Мэн Джу, Эр (2016). «Новая прогрессивная методика обучения для многоклассовой классификации». Нейрокомпьютинг . 207 : 310–321. arXiv : 1609.00085 . doi : 10.1016/j.neucom.2016.05.006. S2CID  12510650.
  4. ^ Венкатесан, Раджасекар. «Техника прогрессивного обучения».