Индекс чувствительности или индекс дискриминируемости или индекс обнаруживаемости — это безразмерная статистика, используемая в теории обнаружения сигнала . Более высокий индекс указывает на то, что сигнал может быть легче обнаружен.
Определение
Индекс дискриминируемости — это разделение между средними значениями двух распределений (обычно сигнального и шумового) в единицах стандартного отклонения.
Равные дисперсии/ковариации
Для двух одномерных распределений с одинаковым стандартным отклонением это обозначается как («dee-prime»):
.
В более высоких измерениях, т.е. с двумя многомерными распределениями с одинаковой матрицей дисперсии-ковариации (чьей симметричной квадратной корней, матрицей стандартного отклонения, является ), это обобщается до расстояния Махаланобиса между двумя распределениями:
,
где - это 1-мерный срез sd вдоль единичного вектора через средние значения, т.е. равняется 1-мерному срезу через средние значения. [1]
Для двух двумерных распределений с одинаковой дисперсией-ковариацией это определяется по формуле:
,
где - коэффициент корреляции, а здесь и , т.е. включая знаки средних разностей вместо абсолютных. [1]
также оценивается как . [2] : 8
Неравные дисперсии/ковариации
Когда два распределения имеют разные стандартные отклонения (или, в общих чертах, разные ковариационные матрицы), существует несколько конкурирующих индексов, все из которых сводятся к для равной дисперсии/ковариации.
Индекс байесовского дискриминанта
Это максимальный (оптимальный по Байесу) индекс дискриминируемости для двух распределений, основанный на величине их перекрытия, т.е. оптимальная (байесовская) ошибка классификации идеальным наблюдателем, или ее дополнение — оптимальная точность :
, [1]
где — обратная кумулятивная функция распределения стандартного нормального. Байесовская дискриминантность между одномерными и многомерными нормальными распределениями может быть вычислена численно [1] (код Matlab), а также может использоваться в качестве приближения, когда распределения близки к нормальному.
является положительно-определенной статистической мерой расстояния, которая свободна от предположений о распределениях, таких как расхождение Кульбака-Лейблера . является асимметричной, тогда как является симметричной для двух распределений. Однако не удовлетворяет неравенству треугольника, поэтому она не является полной метрикой. [1]
В частности, для задачи «да/нет» между двумя одномерными нормальными распределениями со средними значениями и дисперсиями оптимальная по Байесу точность классификации составляет: [1]
также может быть вычислен из ROC-кривой задачи «да/нет» между двумя одномерными нормальными распределениями с одним сдвиговым критерием. Его также можно высчитать из ROC-кривой любых двух распределений (в любом количестве переменных) с сдвиговым отношением правдоподобия, найдя точку на ROC-кривой, которая находится дальше всего от диагонали. [1]
Для двухинтервальной задачи между этими распределениями оптимальная точность равна ( обозначает обобщенное распределение хи-квадрат ), где . [1] Байесовская дискриминируемость .
Индекс дискриминантности RMS sd
Обычный приблизительный (т.е. субоптимальный) индекс дискриминируемости, имеющий замкнутую форму, заключается в том, чтобы взять среднее значение дисперсий, т.е. среднеквадратичное отклонение двух стандартных отклонений: [3] (также обозначается как ). Он равен -баллу площади под кривой рабочей характеристики приемника (AUC) однокритериального наблюдателя. Этот индекс распространяется на общие измерения как расстояние Махаланобиса с использованием объединенной ковариации, т.е. с как общей матрицей sd. [1]
Средний индекс дискриминантности sd
Другой индекс — это , расширенный до общих измерений с использованием в качестве общей матрицы sd. [1]
Сравнение индексов
Было показано, что для двух одномерных нормальных распределений, а для многомерных нормальных распределений, по-прежнему. [1]
Таким образом, и недооценивают максимальную дискриминируемость одномерных нормальных распределений. может недооценивать максимум примерно на 30%. На пределе высокой дискриминируемости для одномерных нормальных распределений сходится к . Эти результаты часто остаются верными в более высоких измерениях, но не всегда. [1] Симпсон и Фиттер [3] продвигали как лучший индекс, особенно для двухинтервальных задач, но Дас и Гейслер [1] показали, что является оптимальной дискриминируемостью во всех случаях и часто является лучшим замкнутым приближением, чем , даже для двухинтервальных задач.
Приблизительный индекс , который использует геометрическое среднее значение sd, меньше при малой дискриминируемости, но больше при большой дискриминируемости. [1]
Вклад в различимость по каждому измерению
В общем, вклад в общую дискриминируемость каждого измерения или признака может быть измерен с использованием величины, на которую дискриминируемость падает при удалении этого измерения. Если общая байесовская дискриминируемость равна , а байесовская дискриминируемость с удаленным измерением равна , мы можем определить вклад измерения как . Это то же самое, что и индивидуальная дискриминируемость измерения , когда ковариационные матрицы равны и диагональны, но в других случаях эта мера более точно отражает вклад измерения, чем его индивидуальная дискриминируемость. [1]
Масштабирование дискриминируемости двух распределений
Иногда мы можем захотеть масштабировать дискриминируемость двух распределений данных, перемещая их ближе или дальше друг от друга. Один из таких случаев — когда мы моделируем задачу обнаружения или классификации, и производительность модели превышает производительность субъекта или наблюдаемых данных. В этом случае мы можем переместить распределения переменных модели ближе друг к другу, чтобы они соответствовали наблюдаемой производительности, а также предсказать, какие конкретные точки данных должны начать перекрываться и быть неправильно классифицированными.
Есть несколько способов сделать это. Один из них — вычислить средний вектор и ковариационную матрицу двух распределений, а затем выполнить линейное преобразование для интерполяции среднего и матрицы sd (квадратный корень ковариационной матрицы) одного из распределений по отношению к другому. [1]
Другой способ заключается в вычислении переменных решения точек данных (логарифмическое отношение правдоподобия того, что точка принадлежит одному распределению по сравнению с другим) в рамках мультинормальной модели, а затем перемещение этих переменных решения ближе друг к другу или дальше друг от друга. [1]