stringtranslate.com

Байесовский классификатор

В статистической классификации байесовский классификатор — это классификатор, имеющий наименьшую вероятность неправильной классификации среди всех классификаторов, использующих тот же набор признаков. [1]

Определение

Предположим, что пара принимает значения в , где — метка класса элемента, характеристики которого заданы как . Предположим, что условное распределение X , учитывая, что метка Y принимает значение r , задается как , где " " означает "распределен как", а где обозначает распределение вероятностей.

Классификатор — это правило, которое присваивает наблюдению X = x предположение или оценку того, какой на самом деле была ненаблюдаемая метка Y = r . В теоретических терминах классификатор — это измеримая функция , с интерпретацией, что C классифицирует точку x в класс C ( x ). Вероятность неправильной классификации, или риск , классификатора C определяется как

Байесовский классификатор — это

На практике, как и в большинстве статистических исследований, трудности и тонкости связаны с эффективным моделированием распределений вероятностей — в данном случае. Классификатор Байеса является полезным эталоном в статистической классификации .

Избыточный риск общего классификатора (возможно, зависящий от некоторых обучающих данных) определяется как Таким образом, эта неотрицательная величина важна для оценки производительности различных методов классификации. Классификатор считается согласованным , если избыточный риск стремится к нулю, когда размер обучающего набора данных стремится к бесконечности. [2]

Считая компоненты взаимно независимыми, получаем наивный байесовский классификатор , где

Характеристики

Доказательство того, что байесовский классификатор оптимален и коэффициент байесовой ошибки минимален, выполняется следующим образом.

Определим переменные: Риск , Байесовский риск , все возможные классы, к которым могут быть отнесены точки . Пусть апостериорная вероятность принадлежности точки к классу 1 будет . Определим классификатор как

Тогда мы имеем следующие результаты:

  1. , т.е. является байесовским классификатором,
  2. Для любого классификатора избыточный риск удовлетворяет

Доказательство (а): Для любого классификатора мы имеем, где вторая строка была выведена с помощью теоремы Фубини

Обратите внимание, что минимизируется путем принятия ,

Поэтому минимально возможный риск — это байесовский риск .

Доказательство (б):


Доказательство (c):

Доказательство (d):

Общий случай

Общий случай, когда классификатор Байеса минимизирует ошибку классификации, когда каждый элемент может принадлежать к любой из n категорий, реализуется путем нарастающих ожиданий следующим образом.

Это минимизируется путем одновременной минимизации всех членов ожидания с использованием классификатора для каждого наблюдения x .

Смотрите также

Ссылки

  1. ^ Деврой, Л.; Дьерфи Л. и Лугоши Г. (1996). Вероятностная теория распознавания образов . Спрингер. ISBN 0-3879-4618-7.
  2. ^ Фараго, А.; Лугоши, Г. (1993). «Сильная универсальная согласованность классификаторов нейронных сетей». Труды IEEE по теории информации . 39 (4): 1146–1151. doi :10.1109/18.243433.