stringtranslate.com

Индекс чувствительности

Рисунок 1: Вероятность ошибки оптимальной по Байесу классификации и индекс байесовой дискриминируемости между двумя одномерными гистограммами, вычисленные из их области перекрытия. Рисунок 2: То же самое, вычисленное из объема перекрытия двух двумерных гистограмм. Рисунок 3: индексы дискриминируемости двух одномерных нормальных распределений с неравными дисперсиями. Граница классификации обозначена черным цветом. Рисунок 4: индексы дискриминируемости двух двумерных нормальных распределений с неравными ковариационными матрицами (эллипсы — это эллипсы ошибок 1 sd). Цветная полоса показывает относительный вклад в дискриминируемость каждого измерения. Они вычисляются численными методами [1] .

Индекс чувствительности или индекс дискриминируемости или индекс обнаруживаемости — это безразмерная статистика, используемая в теории обнаружения сигнала . Более высокий индекс указывает на то, что сигнал может быть легче обнаружен.

Определение

Индекс дискриминируемости — это разделение между средними значениями двух распределений (обычно сигнального и шумового) в единицах стандартного отклонения.

Равные дисперсии/ковариации

Для двух одномерных распределений с одинаковым стандартным отклонением это обозначается как («dee-prime»):

.

В более высоких измерениях, т.е. с двумя многомерными распределениями с одинаковой матрицей дисперсии-ковариации (чьей симметричной квадратной корней, матрицей стандартного отклонения, является ), это обобщается до расстояния Махаланобиса между двумя распределениями:

,

где - это 1-мерный срез sd вдоль единичного вектора через средние значения, т.е. равняется 1-мерному срезу через средние значения. [1]

Для двух двумерных распределений с одинаковой дисперсией-ковариацией это определяется по формуле:

,

где - коэффициент корреляции, а здесь и , т.е. включая знаки средних разностей вместо абсолютных. [1]

также оценивается как . [2] : 8 

Неравные дисперсии/ковариации

Когда два распределения имеют разные стандартные отклонения (или, в общих чертах, разные ковариационные матрицы), существует несколько конкурирующих индексов, все из которых сводятся к для равной дисперсии/ковариации.

Индекс байесовского дискриминанта

Это максимальный (оптимальный по Байесу) индекс дискриминируемости для двух распределений, основанный на величине их перекрытия, т.е. оптимальная (байесовская) ошибка классификации идеальным наблюдателем, или ее дополнение — оптимальная точность :

, [1]

где — обратная кумулятивная функция распределения стандартного нормального. Байесовская дискриминантность между одномерными и многомерными нормальными распределениями может быть вычислена численно [1] (код Matlab), а также может использоваться в качестве приближения, когда распределения близки к нормальному.

является положительно-определенной статистической мерой расстояния, которая свободна от предположений о распределениях, таких как расхождение Кульбака-Лейблера . является асимметричной, тогда как является симметричной для двух распределений. Однако не удовлетворяет неравенству треугольника, поэтому она не является полной метрикой. [1]

В частности, для задачи «да/нет» между двумя одномерными нормальными распределениями со средними значениями и дисперсиями оптимальная по Байесу точность классификации составляет: [1]

,

где обозначает нецентральное распределение хи-квадрат , и . Байесовская дискриминируемость

также может быть вычислен из ROC-кривой задачи «да/нет» между двумя одномерными нормальными распределениями с одним сдвиговым критерием. Его также можно высчитать из ROC-кривой любых двух распределений (в любом количестве переменных) с сдвиговым отношением правдоподобия, найдя точку на ROC-кривой, которая находится дальше всего от диагонали. [1]

Для двухинтервальной задачи между этими распределениями оптимальная точность равна ( обозначает обобщенное распределение хи-квадрат ), где . [1] Байесовская дискриминируемость .

Индекс дискриминантности RMS sd

Обычный приблизительный (т.е. субоптимальный) индекс дискриминируемости, имеющий замкнутую форму, заключается в том, чтобы взять среднее значение дисперсий, т.е. среднеквадратичное отклонение двух стандартных отклонений: [3] (также обозначается как ). Он равен -баллу площади под кривой рабочей характеристики приемника (AUC) однокритериального наблюдателя. Этот индекс распространяется на общие измерения как расстояние Махаланобиса с использованием объединенной ковариации, т.е. с как общей матрицей sd. [1]

Средний индекс дискриминантности sd

Другой индекс — это , расширенный до общих измерений с использованием в качестве общей матрицы sd. [1]

Сравнение индексов

Было показано, что для двух одномерных нормальных распределений, а для многомерных нормальных распределений, по-прежнему. [1]

Таким образом, и недооценивают максимальную дискриминируемость одномерных нормальных распределений. может недооценивать максимум примерно на 30%. На пределе высокой дискриминируемости для одномерных нормальных распределений сходится к . Эти результаты часто остаются верными в более высоких измерениях, но не всегда. [1] Симпсон и Фиттер [3] продвигали как лучший индекс, особенно для двухинтервальных задач, но Дас и Гейслер [1] показали, что является оптимальной дискриминируемостью во всех случаях и часто является лучшим замкнутым приближением, чем , даже для двухинтервальных задач.

Приблизительный индекс , который использует геометрическое среднее значение sd, меньше при малой дискриминируемости, но больше при большой дискриминируемости. [1]

Вклад в различимость по каждому измерению

В общем, вклад в общую дискриминируемость каждого измерения или признака может быть измерен с использованием величины, на которую дискриминируемость падает при удалении этого измерения. Если общая байесовская дискриминируемость равна , а байесовская дискриминируемость с удаленным измерением равна , мы можем определить вклад измерения как . Это то же самое, что и индивидуальная дискриминируемость измерения , когда ковариационные матрицы равны и диагональны, но в других случаях эта мера более точно отражает вклад измерения, чем его индивидуальная дискриминируемость. [1]

Масштабирование дискриминируемости двух распределений

Масштабирование дискриминируемости двух распределений путем линейной интерполяции среднего вектора и матрицы sd (квадратный корень из ковариационной матрицы) одного из них по отношению к другому. Эллипсы — это эллипсы ошибок двух распределений. Черная кривая — это квадратичная граница, разделяющая два распределения. [1]

Иногда мы можем захотеть масштабировать дискриминируемость двух распределений данных, перемещая их ближе или дальше друг от друга. Один из таких случаев — когда мы моделируем задачу обнаружения или классификации, и производительность модели превышает производительность субъекта или наблюдаемых данных. В этом случае мы можем переместить распределения переменных модели ближе друг к другу, чтобы они соответствовали наблюдаемой производительности, а также предсказать, какие конкретные точки данных должны начать перекрываться и быть неправильно классифицированными.

Есть несколько способов сделать это. Один из них — вычислить средний вектор и ковариационную матрицу двух распределений, а затем выполнить линейное преобразование для интерполяции среднего и матрицы sd (квадратный корень ковариационной матрицы) одного из распределений по отношению к другому. [1]

Другой способ заключается в вычислении переменных решения точек данных (логарифмическое отношение правдоподобия того, что точка принадлежит одному распределению по сравнению с другим) в рамках мультинормальной модели, а затем перемещение этих переменных решения ближе друг к другу или дальше друг от друга. [1]

Смотрите также

Ссылки

  1. ^ abcdefghijklmnopqrs Дас, Абхранил; Уилсон С. Гейслер (2020). «Методы интеграции мультинормалей и вычисления мер классификации». arXiv : 2012.14331 [stat.ML].
  2. ^ MacMillan, N.; Creelman, C. (2005). Теория обнаружения: Руководство пользователя. Lawrence Erlbaum Associates. ISBN 9781410611147.
  3. ^ ab Simpson, AJ; Fitter, MJ (1973). «Каков наилучший индекс обнаруживаемости?». Psychological Bulletin . 80 (6): 481–488. doi :10.1037/h0035203.

Внешние ссылки