В статистической классификации байесовский классификатор — это классификатор, имеющий наименьшую вероятность неправильной классификации среди всех классификаторов, использующих тот же набор признаков. [1]
Определение
Предположим, что пара принимает значения в , где — метка класса элемента, характеристики которого заданы как . Предположим, что условное распределение X , учитывая, что метка Y принимает значение r , задается как , где
" " означает "распределен как", а где обозначает распределение вероятностей.
Классификатор — это правило, которое присваивает наблюдению X = x предположение или оценку того, какой на самом деле была ненаблюдаемая метка Y = r . В теоретических терминах классификатор — это измеримая функция , с интерпретацией, что C классифицирует точку x в класс C ( x ). Вероятность неправильной классификации, или риск , классификатора C определяется как
Байесовский классификатор — это
На практике, как и в большинстве статистических исследований, трудности и тонкости связаны с эффективным моделированием распределений вероятностей — в данном случае. Классификатор Байеса является полезным эталоном в статистической классификации .
Избыточный риск общего классификатора (возможно, зависящий от некоторых обучающих данных) определяется как
Таким образом, эта неотрицательная величина важна для оценки производительности различных методов классификации. Классификатор считается согласованным , если избыточный риск стремится к нулю, когда размер обучающего набора данных стремится к бесконечности. [2]
Считая компоненты взаимно независимыми, получаем наивный байесовский классификатор , где
Характеристики
Доказательство того, что байесовский классификатор оптимален и коэффициент байесовой ошибки минимален, выполняется следующим образом.
Определим переменные: Риск , Байесовский риск , все возможные классы, к которым могут быть отнесены точки . Пусть апостериорная вероятность принадлежности точки к классу 1 будет . Определим классификатор как
Тогда мы имеем следующие результаты:
- , т.е. является байесовским классификатором,
- Для любого классификатора избыточный риск удовлетворяет
Доказательство (а): Для любого классификатора мы имеем,
где вторая строка была выведена с помощью теоремы Фубини
Обратите внимание, что минимизируется путем принятия ,
Поэтому минимально возможный риск — это байесовский риск .
Доказательство (б):
Доказательство (c):
Доказательство (d):
Общий случай
Общий случай, когда классификатор Байеса минимизирует ошибку классификации, когда каждый элемент может принадлежать к любой из n категорий, реализуется путем нарастающих ожиданий следующим образом.
Это минимизируется путем одновременной минимизации всех членов ожидания с использованием классификатора для каждого наблюдения x .
Смотрите также
Ссылки
- ^ Деврой, Л.; Дьерфи Л. и Лугоши Г. (1996). Вероятностная теория распознавания образов . Спрингер. ISBN 0-3879-4618-7.
- ^ Фараго, А.; Лугоши, Г. (1993). «Сильная универсальная согласованность классификаторов нейронных сетей». Труды IEEE по теории информации . 39 (4): 1146–1151. doi :10.1109/18.243433.