stringtranslate.com

Индекс чувствительности

Рисунок 1: Вероятность ошибки оптимальной по Байесу классификации и индекс байесовской различимости между двумя одномерными гистограммами, рассчитанными на основе их области перекрытия. Рисунок 2: То же, рассчитанное на основе объема перекрытия двух двумерных гистограмм. Рисунок 3: индексы различимости двух одномерных нормальных распределений с неравными дисперсиями. Граница классификации выделена черным цветом. Рисунок 4: индексы различимости двух двумерных нормальных распределений с неравными ковариационными матрицами (эллипсы представляют собой эллипсы с ошибкой 1 стандартное отклонение). Цветная полоса показывает относительный вклад в различимость по каждому измерению. Они рассчитываются численными методами [1] .

Индекс чувствительности или индекс различимости или индекс обнаруживаемости — это безразмерная статистика , используемая в теории обнаружения сигналов . Более высокий индекс указывает на то, что сигнал легче обнаружить.

Определение

Индекс различимости — это разделение средних значений двух распределений (обычно распределения сигнала и шума) в единицах стандартного отклонения.

Равные дисперсии/ковариации

Для двух одномерных распределений с одинаковым стандартным отклонением оно обозначается («ди-простое»):

.

В более высоких измерениях, то есть с двумя многомерными распределениями с одинаковой дисперсионно-ковариационной матрицей (чей симметричный квадратный корень, матрица стандартного отклонения, равен ), это обобщается на расстояние Махаланобиса между двумя распределениями:

,

где - 1d срез sd вдоль единичного вектора через средства, т.е. равен вдоль 1d среза через средства. [1]

Для двух двумерных распределений с одинаковой ковариацией дисперсии это определяется как:

,

где – коэффициент корреляции, а здесь и , т.е. включая знаки средних разностей вместо абсолютных. [1]

также оценивается как . [2] : 8 

Неравные дисперсии/ковариации

Когда два распределения имеют разные стандартные отклонения (или, в общих измерениях, разные ковариационные матрицы), существует несколько конкурирующих индексов, каждый из которых сводится к равной дисперсии/ковариации.

Байесовский индекс различимости

Это максимальный (байесовский) показатель различимости двух распределений, основанный на величине их перекрытия, т.е. оптимальной (байесовской) ошибки классификации идеальным наблюдателем или ее дополнением, оптимальной точностью :

, [1]

где – обратная кумулятивная функция распределения стандартного нормального. Байесовская различимость между одномерными и многомерными нормальными распределениями может быть рассчитана численно [1] (код Matlab), а также может использоваться в качестве приближения, когда распределения близки к нормальным.

является положительно определенной статистической мерой расстояния, которая свободна от предположений о распределениях, таких как расхождение Кульбака-Лейблера . является асимметричным, тогда как симметричным для двух распределений. Однако не удовлетворяет неравенству треугольника, поэтому не является полной метрикой. [1]

В частности, для задачи «да/нет» между двумя одномерными нормальными распределениями со средними значениями и дисперсиями оптимальная по Байесу точность классификации составляет: [1]

,

где обозначает нецентральное распределение хи-квадрат , и . Байесовская различимость

также может быть вычислено по кривой ROC задачи «да/нет» между двумя одномерными нормальными распределениями с одним критерием сдвига. Его также можно вычислить по кривой ROC любых двух распределений (с любым количеством переменных) со сдвигом отношения правдоподобия, определив точку на кривой ROC, которая находится дальше всего от диагонали. [1]

Для двухинтервальной задачи между этими распределениями оптимальная точность равна ( обозначает обобщенное распределение хи-квадрат ), где . [1] Байесовская различимость .

Индекс различимости RMS sd

Общий приблизительный (т.е. неоптимальный) индекс различимости, имеющий замкнутую форму, состоит в том, чтобы брать среднее значение дисперсий, т.е. среднеквадратичное значение двух стандартных отклонений: [3] (также обозначается ). Это раз превышает -оценку площади под кривой рабочей характеристики приемника (AUC) однокритериального наблюдателя. Этот индекс расширяется до общих размеров как расстояние Махаланобиса с использованием объединенной ковариации, т.е. в качестве общей sd-матрицы. [1]

Средний стандартный индекс различимости

Другой индекс — , расширенный до общих размеров, используя в качестве общей sd-матрицы. [1]

Сравнение индексов

Было показано, что для двух одномерных нормальных распределений , и для многомерных нормальных распределений по-прежнему. [1]

Таким образом, и недооценивают максимальную различимость одномерных нормальных распределений. может занижать максимум примерно на 30%. На пределе высокой различимости одномерных нормальных распределений сходится к . Эти результаты часто справедливы и для более высоких измерений, но не всегда. [1] Симпсон и Фиттер [3] позиционировались как лучший показатель, особенно для задач с двумя интервалами, но Дас и Гейслер [1] показали, что это оптимальная различимость во всех случаях и часто является лучшим приближением в замкнутой форме, чем , даже для двухинтервальных задач.

Приблизительный индекс , в котором используется среднее геометрическое стандартное отклонение, меньше, чем при малой различимости, но больше при большой различимости. [1]

Вклад в различимость по каждому измерению

В общем, вклад в общую различимость каждого измерения или признака можно измерить, используя величину, на которую снижается различимость при удалении этого измерения. Если общая байесовская различимость равна , а байесовская различимость с удаленной размерностью равна , мы можем определить вклад размерности как . Это то же самое, что и индивидуальная различимость измерения, когда ковариационные матрицы равны и диагональны, но в остальных случаях эта мера более точно отражает вклад измерения, чем его индивидуальная различимость. [1]

Смотрите также

Рекомендации

  1. ^ abcdefghijklmnop Дас, Абхранил; Уилсон С. Гейслер (2020). «Методы интеграции мультинормальных чисел и вычисления мер классификации». arXiv : 2012.14331 [stat.ML].
  2. ^ Макмиллан, Н.; Крилман, К. (2005). Теория обнаружения: Руководство пользователя. Лоуренс Эрлбаум Ассошиэйтс. ISBN 9781410611147.
  3. ^ Аб Симпсон, AJ; Фиттер, MJ (1973). «Каков наилучший показатель обнаруживаемости?». Психологический вестник . 80 (6): 481–488. дои : 10.1037/h0035203.

Внешние ссылки