Рабочая характеристика приемника

редактировать
Диагностический график
Терминология и производные. из матрицы ошибок
положительное состояние (P)
количество реальных положительных случаев в данных
отрицательное условие (N)
количество реальных отрицательных случаев в данных

истинно положительное (TP)
экв. с попаданием
истинно отрицательное (TN)
экв. с правильным отклонением
ложное срабатывание (FP)
экв. с ложной тревогой, ошибкой типа I
ложноотрицательным (FN)
экв. с промахом, ошибка типа II

чувствительность, отзыв, процент попаданий или истинно положительный результат (TPR)
TPR = TPP = TPTP + FN = 1 - FNR {\ displaystyle \ mathrm {TPR} = {\ frac {\ mathrm {TP}} {\ mathrm {P}}} = {\ frac {\ mathrm {TP}} {\ mathrm {TP} + \ mathrm {FN}}} = 1- \ mathrm {FNR}}{\displaystyle \mathrm {TPR} ={\frac {\mathrm {TP} }{\mathrm {P} }}={\frac {\mathrm {TP} }{\mathrm {TP} +\mathrm {FN} }}=1-\mathrm {FNR} }
специфичность, селективность или истинно отрицательная скорость (TNR)
TNR = TNN = TNTN + FP = 1 - FPR {\ displaystyle \ mathrm {TNR} = {\ frac {\ mathrm {TN}} {\ mathrm {N}}} = {\ frac {\ mathrm {TN} } {\ mathrm {TN} + \ mathrm {FP}}} = 1- \ mathrm {FPR}}{\displaystyle \mathrm {TNR} ={\frac {\mathrm {TN} }{\mathrm {N} }}={\frac {\mathrm {TN} }{\mathrm {TN} +\mathrm {FP} }}=1-\mathrm {FPR} }
точность или прогнозируемое положительное значение (PPV)
PPV = TPTP + FP = 1 - FDR {\ displaystyle \ mathrm {PPV} = {\ frac {\ mathrm {TP}} {\ mathrm {TP} + \ mathrm {FP}}} = 1- \ mathrm {FDR}}{\displaystyle \mathrm {PPV} ={\frac {\mathrm {TP} }{\mathrm {TP} +\mathrm {FP} }}=1-\mathrm {FDR} }
отрицательное прогнозное значение (NPV)
NPV = TNTN + FN = 1 - FOR {\ displaystyle \ mathrm {NPV} = {\ frac {\ mathrm {TN}} {\ mathrm {TN} } + \ mathrm {FN}}} = 1- \ mathrm {FOR}}{\displaystyle \mathrm {NPV} ={\frac {\mathrm {TN} }{\mathrm {TN} +\mathrm {FN} }}=1-\mathrm {FOR} }
частота пропусков или ложноотрицательная частота (FNR)
FNR = FNP = FNFN + TP = 1 - TPR {\ displaystyle \ mathrm {FNR} = {\ frac {\ mathrm {FN}} {\ mathrm {P}}} = {\ frac {\ mathrm {FN}} {\ mathrm {FN} + \ mathrm {TP} }} = 1- \ mathrm {TPR}}{\displaystyle \mathrm {FNR} ={\frac {\mathrm {FN} }{\mathrm {P} }}={\frac {\mathrm {FN} }{\mathrm {FN} +\mathrm {TP} }}=1-\mathrm {TPR} }
выпадение или частота ложных срабатываний (FPR)
FPR = FPN = FPFP + TN = 1 - TNR {\ displaystyle \ mathrm {FPR} = {\ frac {\ mathrm {FP}} {\ mathrm {N}}} = {\ frac {\ mathrm {FP}} {\ mathrm {FP} + \ mathrm {TN}}} = 1- \ mathrm {TNR}}{\displaystyle \mathrm {FPR} ={\frac {\mathrm {FP} }{\mathrm {N} }}={\frac {\mathrm {FP} }{\mathrm {FP} +\mathrm {TN} }}=1-\mathrm {TNR} }
ложное обнаружение (FDR)
FDR = FPFP + TP = 1 - PPV {\ displaystyle \ mathrm {FDR} = {\ frac {\ mathrm {FP}} {\ mathrm {FP} + \ mathrm {TP}}} = 1- \ mathrm {PPV}}{\displaystyle \mathrm {FDR} ={\frac {\mathrm {FP} }{\mathrm {FP} +\mathrm {TP} }}=1-\mathrm {PPV} }
коэффициент ложных пропусков (FOR)
FOR = FNFN + TN = 1 - NPV {\ displaystyle \ mathrm {FOR} = {\ frac {\ mathrm {FN}} {\ mathrm {FN} + \ mathrm {TN}}} = 1- \ mathrm {NPV}}{\displaystyle \mathrm {FOR} ={\frac {\mathrm {FN} }{\mathrm {FN} +\mathrm {TN} }}=1-\mathrm {NPV} }
Порог распространенности (PT)
PT = TPR (- TNR + 1) + TNR - 1 (TPR + TNR - 1) {\ displaystyle PT = {\ frac {{\ sqrt {TPR (-TNR + 1)}} + TNR-1} {(TPR + TNR-1)}}}{\displaystyle PT={\frac {{\sqrt {TPR(-TNR+1)}}+TNR-1}{(TPR+TNR-1)}}}
Оценка угроз (TS) или критический индекс успеха (CSI)
TS = TPTP + FN + FP {\ displaystyle \ mathrm {TS} = {\ frac {\ mathrm {TP}} {\ mathrm {TP} + \ mathrm {FN} + \ mathrm {FP}}}}{\displaystyle \mathrm {TS} ={\frac {\mathrm {TP} }{\mathrm {TP} +\mathrm {FN} +\mathrm {FP} }}}

точность (ACC)
ACC = TP + TNP + N = TP + TNTP + TN + FP + FN {\ displaystyle \ mathrm {ACC} = {\ frac {\ mathrm {TP} + \ mathrm {TN}} {\ mathrm {P} + \ mathrm {N}}} = {\ frac {\ mathrm {TP} + \ mathrm {TN}} {\ mathrm {TP} + \ mathrm {TN} + \ mathrm {FP} + \ mathrm {FN}}}{\displaystyle \mathrm {ACC} ={\frac {\mathrm {TP} +\mathrm {TN} }{\mathrm {P} +\mathrm {N} }}={\frac {\mathrm {TP} +\mathrm {TN} }{\mathrm {TP} +\mathrm {TN} +\mathrm {FP} +\mathrm {FN} }}}
сбалансированная точность (BA)
BA = TPR + TNR 2 {\ displaystyle \ mathrm {BA} = {\ frac {TPR + TNR} {2}}}{\displaystyle \mathrm {BA} ={\frac {TPR+TNR}{2}}}
F1
- это среднее гармоническое точность и чувствительности
F 1 = 2 ⋅ PPV ⋅ TPRPPV + TPR = 2 TP 2 TP + FP + FN {\ displaystyle \ mathrm {F} _ {1} = 2 \ cdot {\ frac {\ mathrm {PPV} \ cdot \ mathrm {TPR}} {\ mathrm {PPV} + \ mathrm {TPR}}} = {\ frac {2 \ mathrm {TP}} {2 \ mathrm {TP} + \ mathrm {FP} + \ mathrm {FN}}}{\displaystyle \mathrm {F} _{1}=2\cdot {\frac {\mathrm {PPV} \cdot \mathrm {TPR} }{\mathrm {PPV} +\mathrm {TPR} }}={\frac {2\mathrm {TP} }{2\mathrm {TP} +\mathrm {FP} +\mathrm {FN} }}}
Коэффициент корреляции Мэтьюза (MCC)
MCC = TP × TN - FP × FN (TP + FP) ( TP + FN) (TN + FP) (TN + FN) {\ Displaystyle \ math rm {MCC} = {\ frac {\ mathrm {TP} \ times \ mathrm {TN} - \ mathrm {FP} \ times \ mathrm {FN}} {\ sqrt {(\ mathrm {TP} + \ mathrm {FP}) (\ mathrm {TP} + \ mathrm {FN}) (\ mathrm {TN} + \ mathrm {FP}) (\ mathrm {TN} + \ mathrm {FN})}}}}{\displaystyle \mathrm {MCC} ={\frac {\mathrm {TP} \times \mathrm {TN} -\mathrm {FP} \times \mathrm {FN} }{\sqrt {(\mathrm {TP} +\mathrm {FP})(\mathrm {TP} +\mathrm {FN})(\mathrm {TN} +\mathrm {FP})(\mathrm {TN} +\mathrm {FN})}}}}
Фаулкс– Индекс Мальлоу (FM)
FM = TPTP + FP ⋅ TPTP + FN = PPV ⋅ TPR {\ displaystyle \ mathrm {FM } = {\ sqrt {{\ frac {TP} {TP + FP}} \ cdot {\ frac {TP} {TP + FN}}}} = {\ sqrt {PPV \ cdot TPR}}}{\displaystyle \mathrm {FM} ={\sqrt {{\frac {TP}{TP+FP}}\cdot {\frac {TP}{TP+FN}}}}={\sqrt {PPV\cdot TPR}}}
информированность или информированность букмекеров (BM)
BM = TPR + TNR - 1 {\ displaystyle \ mathrm {BM} = \ mathrm {TPR} + \ mathrm {TNR} -1}{\displaystyle \mathrm {BM} =\mathrm {TPR} +\mathrm {TNR} -1}
маркировка ( MK) или deltaP
MK = PPV + NPV - 1 {\ displaystyle \ mathrm {MK} = \ mathrm {PPV} + \ mathrm {NPV} -1}{\displaystyle \mathrm {MK} =\mathrm {PPV} +\mathrm {NPV} -1}

Источники: Fawcett (2006), Powers (2011).), Тинг (2011), CAWCR Д. Чикко и Г. Джу rman (2020), Tharwat (2018).

ROC-кривая трех предикторов расщепления пептида на рабочей характеристической кривой протеасомы.

A приемника или ROC-кривая представляет собой графический график, иллюстрирующий диагностику системы возможность бинарного классификатора , поскольку ее порог различения меняется. Изначально метод разработан для операторов радиолокационных приемников, поэтому и назван так.

Кривая ROC создается путем построения графика частоты истинных положительных результатов (TPR) против частоты ложных срабатываний (FPR) при различных настройках пороговых значений. Показатель истинно положительных результатов также известен как чувствительность, отзыв или вероятность обнаружения в машинном обучении. Частота ложных срабатываний также известна как вероятность ложной тревоги и может быть рассчитана как (1 - специфичность ). Его также можно рассматривать как график мощности как функции ошибки типа I правила принятия решений (когда производительность рассчитывается только по выборке из совокупности, его можно рассматривать как средство оценки этих величин). Таким образом, кривая ROC представляет собой чувствительность или отзыв как функцию выпадения . В общем, если известны распределения вероятностей для обнаружения, так и для ложной тревоги, кривую ROC можно построить, построив кумулятивную функцию распределения (область под распределением вероятностей из - ∞ {\ displaystyle - \ infty}-\infty к порогу распознавания) вероятности обнаружения по оси y в зависимости от кумулятивной функции распределения вероятности ложной тревоги по оси x.

ROC-анализ предоставляет инструменты для выбора оптимальных моделей и отбрасывания неоптимальных независимо от (и до определения) контекста распределения или распределения классов. Анализ ROC напрямую и естественным образом связан с анализом затрат / выгод при диагностике принятия решений.

Кривая ROC была впервые добавлена ​​инженерами-электриками и инженерами-радарными инженерами во время Второй мировой войны для обнаружения объектов на полях сражений и вскоре стала введено в психологию для учета перцептивного обнаружения стимулов. ROC-анализ с тех пор используется в медицине, радиологии, биометрии, прогнозирование природных опасностей, метеорология, оценка эффективности моделей и другие области на протяжении многих десятилетий и все чаще используются исследованиях машинного обучения и интеллектуального анализа данных.

ROC также известен как кривая относительной рабочей характеристики, потому что это сравнение двух рабочих характеристик (TPR и FPR) при изменении критерия.

Содержание

  • 1 Базовая концепция
  • 2 ROC-пространство
  • 3 Кривые в ROC-пространстве
  • 4 Дальнейшие интерпретации
    • 4.1 Площадь под кривой
    • 4.2 Другие показатели
  • 5 График компромисса ошибок обнаружения
  • 6 Z-оценка
  • 7 История
  • 8 кривых ROC за пределами бинарной классификации
  • 9 См. Также
  • 10 Ссылки
  • 11 Внешние ссылки
  • 12 Дополнительная литература

Базовая концепция

Модель классификации (классификатор или диагностика ) - это сопоставление экземпляров между определенными классами / группой. Форма результата классификатора или диагноза может быть произвольным действительное значение (непрерывный вывод), граница классификатора между классами должна определяться пороговым значением (например, чтобы определить, есть ли у человека гипертония на основе измерения артериального давления ). Или это может быть метка дискретного класса , указывающая на один из классов.

Рассмотрим задачу прогнозирования двух классов (двоичная классификация ), в которой результаты помечаются как положительные (p) или отрицательные (n). Есть четыре результата результата от бинарного классификатора. Если результатом прогноза является p, то фактическое значение также равно p, то это называется истинно положительным (TP); однако, если фактическое значение равно n, это считается ложным срабатыванием (FP). И наоборот, истинно отрицательный (TN) место, когда результат прогнозирования и фактическое значение имеет равное n, а ложно отрицательный результат (FN) - когда результат прогнозирования равен n, а фактическое значение равно p.

Чтобы получить соответствующий пример из реальной проблемы, рассмотрите диагностический тест, который пытается определить, есть ли у человека определенное заболевание. Ложноположительный результат в этом случае, когда человек дает положительный результат, но на самом деле он не болен. С другой стороны, ложноотрицательный результат, когда тест человека отрицательный, что свидетельствует о его здоровье, хотя на самом деле он действительно болен.

Определим эксперимент из P положительных экземпляров и N отрицательных экземпляров для некоторого условия. Четыре исхода можно сформулировать в виде таблицы непредвиденных обстоятельств 2 × 2 или матрицы неточностей следующим образом:

Истинное условие
Общая совокупность Условие положительноеСостояние отрицательныйРаспространение = Σ Состояние положительное / Σ Общая популяцияТочность (ACC) = Σ Истинно положительный результат + Σ Истинно отрицательный / Σ Общая популяция
Прогнозируемое состояниеПрогнозируемое состояние. положительноеИстинно-положительное Ложноположительное,. Ошибка типа I Прогнозируемое положительное значение (PPV), Точность = Σ Истинно-положительное / Σ Прогнозируемое условие положительноеКоэффициент ложного обнаружения (FDR) = Σ Ложно-положительный результат / Σ Прогнозируемое условие положительное
Прогнозируемое условие. отрицательноеЛожноотрицательное,. Ошибка типа II Истинно отрицательное Уровень ложных пропусков (ДЛЯ) = Σ ложноотрицательный / Σ прогнозируемое отрицательное условиеотрицательное прогнозируемое значение (NPV) = Σ истинно отрицательное / Σ прогнозируемое отрицательное условие
истинно положительное значение (TPR), Отзыв, Чувствительность, Вероятный Тип обнаружения, Мощность = Σ Истинно положительный результат / Σ Положительный результатЧастота ложных срабатываний (FPR), Выпадение, вероятность ложной тревоги = Σ Ложноположительный результат / Σ Условие отрицательноеПоложительное отношение правдоподобия (LR +) = TPR / FPRДиагностическое отношение шансов (DOR) = LR + / LR-F1 = 2 · Точность · Отзыв / Precision + Recall
Частота ложных отрицательных результатов (FNR), частота пропусков = Σ ложноотрицательные / Σ положительные условияСпецифичность (SPC), селективность, частота истинных отрицательных чисел (TNR) = Σ Истинно отрицательное / Σ Условие отрицательноеОтрицательное отношение правдоподобия (LR−) = FNR / TNR

Пространство ROC

Пространство ROC и четырех графиков примеров прогнозирования. Пространство РПЦ для «лучшего» и «худшего» классификатора.

Таблица непредвиденных обстоятельств может выводить несколько оценочных «показателей» (см. Информационное окно). Чтобы нарисовать кривую ROC, необходимы только истинные положительные результаты (TPR) и ложные положительные результаты (FPR) (как функции какого-либо параметра классификатора). TPR определяет, сколько правильных положительных результатов происходит среди всех положительных образцов, доступных во время теста. FPR, с другой стороны, определяет, сколько неверных положительных результатов происходит среди всех отрицательных образцов, доступных во время теста.

Пространство ROC определяет FPR и TPR как оси x и y, соответственно, отображает относительные компромиссы между истинным положительным результатом (преимущества) и ложным положительным результатом (затраты). TPR эквивалентности, а FPR равен 1 - специфичность, график ROC иногда график зависимости чувствительности (1 - специфичности). Каждый результат прогнозирования или экземпляр матрицы ошибок представляет одну точку в рамке ROC.

Наилучший из методов прогнозирования дает точку в верхнем левом углу или координату (0,1) пространства ROC, представляющую 100% чувствительность (без ложноотрицательных результатов) и 100% специфичность (без ложных срабатываний). Точку (0,1) также называют идеальной классификацией. Случайное предположение дало точку вдоль диагональной линии (так называемой линии дискриминации) от левого нижнего до верхнего правого угла (от независимо положительного и отрицательного базовых значений ). Интуитивно понятный пример случайного угадывания - это решение подбрасывания монет. По мере увеличения размера выборки ROC-точка случайного классификатора стремится к диагональной линии. В случае сбалансированной монеты она будет стремиться к точке (0,5, 0,5).

Диагональ разделяет пространство РПЦ. Точки над диагональю соответствуют хорошие результаты классификации (лучше, чем случайная); точки под линией представляют плохие результаты (хуже случайных). Обратите внимание, что выходные данные постоянно плохого предсказателя можно просто инвертировать, чтобы получить хороший предсказатель.

Давайте рассмотрим четыре результата прогноза для 100 положительных и 100 отрицательных случаев:

ABCC ′
TP=63FP=2891
FN = 37TN = 72109
100100200
TP=77FP = 77154
FN=23TN=2346
100100200
TP = 24FP = 88112
FN=76TN=1288
100100200
TP=76FP=1288
FN=24TN = 88112
100100200
TPR = 0,63TPR = 0,77TPR = 0, 24TPR = 0,76
FPR = 0,28FPR = 0,77FPR = 0,88FPR = 0,12
PPV = 0,69PPV = 0,50PPV = 0,21PPV = 0,86
F1 = 0,66F1 = 0,61F1 = 0,23F1 = 0,81
ACC = 0,68ACC = 0,50ACC = 0,18ACC = 0,82

Графики четырех приведенных выше результатов в Пространстве ROC дано на рисунке. Результат метода A ясно показывает лучшую предсказательную силу среди A, Bи C . Результат B лежит на линии случайного предположения (диагональная линия), и из таблицы видно, что точность B составляет 50%. Однако, когда C зеркально отражается в центральной точке (0,5,0,5), результирующий метод C 'даже лучше, чем A . Этот зеркальный метод просто меняет предсказания любого метода или теста, создавшего таблицу непредвиденных обстоятельств C . Хотя исходный метод C имеет отрицательную прогнозирующую способность, простое изменение его решений приводит к новому способу прогнозирования C ', который имеет положительную прогнозирующую способность. Когда метод C предсказывает p или n, метод C 'предсказывает n или p соответственно. Таким образом, тест C 'будет работать лучше всего. Чем лучше результат из таблицы непредвиденных обстоятельств к верхнему пределу предсказания, тем лучше. Если результат ниже линии (т.е. метод хуже, чем случайное предположение), все прогнозы метода должны быть отменены, чтобы использовать его мощность, тем самым перемещая результат выше случайного предположения.

Кривые в визу ROC

ROC curves.svg

В бинарной классификации класса для каждого экземпляра часто делается на основе непрерывной случайной величины X {\ displaystyle X}X, который является «оцененной», вычисленной для данного экземпляра (например, оцененная вероятность в логистической регрессии). При заданном пороговом параметре T {\ displaystyle T}Tэкземпляр классифицируется как «положительный», если X>T {\ displaystyle X>T}X>T и "негативный" в другом случае. X {\ displaystyle X}Xследует плотности вероятности f 1 (x) {\ displaystyle f_ {1} (x)}f_{1}(x), если экземпляр действительно принадлежит к классу "позитивный" ", и f 0 (x) {\ displaystyle f_ {0} (x)}f_{0}(x)в случае потери. Следовательно, истинно положительный коэффициент определяется как TPR (T) = ∫ T ∞ е 1 (Икс) dx {\ Displaystyle {\ t_dv {TPR}} (T) = \ int _ {T} ^ {\ infty} f_ {1} (x) \, dx}{\t_dv{TPR}}(T)=\int _{T}^{\infty }f_{1}(x)\,dxи частота ложных срабатываний как FPR (T) = ∫ T ∞ f 0 (x) dx {\ displaystyle {\ t_dv {FPR}} ( T) = \ int _ {T} ^ {\ infty} f_ {0} (x) \, dx}{\t_dv{FPR}}(T)=\int _{T}^{\infty }f_{0}(x)\,dx. Кривая ROC отображает параметрическую зависимость TPR (T) от FPR (T) с T в качестве изменяющегося изменения.

Например, представьте, что blo Уровни белка у больных и здоровых людей нормально распределены со средними значениями 2 g /dL и 1 г дл / соответственно. Медицинский тест может измерить уровень определенного в образце крови и классифицировать любое число выше определенного порога как указывающее на заболевание. Экспериментатор может настроить порог (черная вертикальная линия на рисунке), что, в свою очередь, изменит частоту ложных срабатываний. Увеличение порога приводит к большему количеству ложных срабатываний (и большему количеству ложноотриц результатов), что соответствует движению кривой влево. Фактическая форма задается степенью перекрытия распределений.

Дальнейшие интерпретации

Иногда ROC используется для генерации сводной статистики. Распространенными версиями являются:

  • ечение кривой ROC с линией под углом 45 градусов, ортогональной линии без дискриминации - точка баланса, где Чувствительность = 1 - Специфичность
  • точка касательной кривой ROC сительной под угол 45 градусов, параллельной линии дискриминации, является ближайшей к безошибочной точке (0,1) - также называется статистикой J Юдена и обобщается как информированность
  • площадь между кривой ROC и линией отсутствия дискриминации, умноженная на два, называется коэффициентом Джини. Его не следует путать с мерой статистической дисперсии , также называемой коэффициентом Джини.
  • , площадью между полной кривой ROC и треугольной кривой ROC, включая только (0,0), (1,1) и одну выбранную рабочую кривую. point (tpr, fpr) - Согласованность
  • площадь под кривой ROC, или «AUC» («Area Under Curve»), или A '(произносится «a-prime»), или «c-statistic» "(" статистика соответствия ").
  • индекс чувствительности d ' (произносится как« d-prime »), расстояние между средними значениями распределения активности в системе в условиях шума- только условия и его распределение в условиях одного сигнала, деленное на их стандартное отклонение, в предположении, что оба этих распределения являются нормальными с одинаковым стандартным отклонением. Согласно этим предположениям, форма ROC полностью определяется d '.

Однако любая попытка суммироватькривую ROC в одно число теряет информацию о структуре компромиссов конкретного алгоритма дискриминатора.

Площадь под кривой

При использовании нормализованной площади под кривой (часто называемая просто AUC) соответствует вероятности того, что классификатор ранжирует случайно выбранный положительный экзе мпляр выше, чем случайно выбранный отрицательный (при условии, что «положительные» ранги выше «отрицательных»). Это можно увидеть следующим образом: площадь под кривой определяется выражением (интегральные границы меняются местами, поскольку большой T имеет меньшее значение на оси x)

TPR (T): T → y (x) {\ displaystyle TPR (T): T \ rightarrow y (x)}{\displaystyle TPR(T):T\rightarrow y(x)}
FPR (T): T → x {\ displaystyle FPR (T): T \ rightarrow x}{\displaystyle FPR(T):T\rightarrow x}
A = ∫ x = 0 1 TPR (FPR - 1 (x)) dx = ∫ ∞ - ∞ TPR (T) FPR ′ (T) d T = ∫ - ∞ ∞ ∫ - ∞ ∞ I (T ′>T) f 1 (T ′) f 0 (T) d T ′ d T знак равно п (Икс 1>Икс 0) {\ displaystyle A = \ int _ {x = 0} ^ {1} {\ t_dv {TPR}} ({\ t_dv {FPR}} ^ {- 1} (x)) \, dx = \ int _ {\ infty} ^ {- \ infty} {\ t_dv {TPR}} (T) {\ t_dv {FPR}} '(T) \, dT = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} I (T '>T) f_ {1} (T') f_ {0} (T) \, dT '\, dT = P ( X_ {1}>X_ {0})}{\displaystyle A=\int _{x=0}^{1}{\t_dv{TPR}}({\t_dv{FPR}}^{-1}(x))\,dx=\int _{\infty }^{-\infty }{\t_dv{TPR}}(T){\t_dv{FPR}}'(T)\,dT=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }I(T'>T) f_ {1} (T ') f_ {0} (T) \, dT' \, dT = P (X_ {1}>X_ {0})}

где X 1 {\ displaystyle X_ {1}}X_{1}- оценка положительного экземпляра, а X 0 {\ displaystyle X_ {0}}X_{0}- оценка отрицательного экземпляра, а f 0 {\ displaystyle f_ {0}}f_{0}и f 1 {\ displaystyle f_ {1}}f_{1}- плотность вероятности, как определено в предыдущем разделе.

Далее можно показать, что AUC связывает с U Манна - Уитни, который проверяет, оценивает ли положительные результаты выше, чем отрицательные. Он также эквивалентен тесту Вилкоксона рангов. Для предиктора f {\ textstyle f}{\textstyle f}несмещенная оценка его AUC может быть выражена следующей статистикой Вилкоксона-Манна-Уитни:

AUC (f) = ∑ t 0 ∈ D 0 ∑ t 1 ∈ D 1 1 [f (t 0) < f ( t 1) ] | D 0 | ⋅ | D 1 |, {\displaystyle AUC(f)={\frac {\sum _{t_{0}\in {\mathcal {D}}^{0}}\sum _{t_{1}\in {\mathcal {D}}^{1}}{\textbf {1}}[f(t_{0}){\displaystyle AUC(f)={\frac {\sum _{t_{0}\in {\mathcal {D}}^{0}}\sum _{t_{1}\in {\mathcal {D}}^{1}}{\textbf {1}}[f(t_{0})<f(t_{1})]}{|{\mathcal {D}}^{0}|\cdot |{\mathcal {D}}^{1}|}},}

где, 1 [f (t 0) < f ( t 1) ] {\textstyle {\textbf {1}}[f(t_{0}){\textstyle {\textbf {1}}[f(t_{0})<f(t_{1})]}обозначает индикаторную функцию, которая возвращает 1, если f (t 0) < f ( t 1) {\displaystyle f(t_{0}){\displaystyle f(t_{0})<f(t_{1})}иначе вернуть 0; D 0 {\ displaystyle {\ mathcal {D}} ^ {0}}{\displaystyle {\mathcal {D}}^{0}}- набор отрицательных примеров, а D 1 {\ displaystyle {\ mathcal {D}} ^ {1 }}{\displaystyle {\mathcal {D}}^{1}}- множество положительных примеров.

AUC связывает с * коэффициентом Джини * (G 1 {\ displaystyle G_ {1}}G_{1}) по формуле G 1 = 2 AUC - 1 {\ displaystyle G_ {1} = 2 {\ t_dv {AUC}} - 1}G_{1}=2{\t_dv{AUC}}-1, где:

G 1 = 1 - ∑ k = 1 n (X k - X k - 1) (Y К + Y К - 1) {\ Displaystyle G_ {1} = 1- \ sum _ {k = 1} ^ {n} (X_ {k} -X_ {k-1}) (Y_ {k} + Y_ {k- 1})}G_{1}=1-\sum _{k=1}^{n}(X_{k}-X_{k-1})(Y_{k}+Y_{k-1})

Таким образом, можно рассчитать AUC, используя среднее значение ряда трапецеидальных приближений. G 1 {\ displaystyle G_ {1}}G_{1}не следует путать с мерой статистической дисперсии, которая также называется коэффициентом Джини..

Также обычно рассчитывают площадь под выпуклая оболочка ROC (ROC AUCH = ROCH AUC), поскольку любая точка на отрезке линии между двумя результатами прогноза может быть достигнута путем случайного использования той или иной системы вероятностей, пропорциональными относительной длине противоположного компонента сегмента. Возможно инвертировать в изогнутую - так же, как на рисунке худшее решение может быть отражено, чтобы стать лучшим решением; вогнутости могут быть отражены в любом экстремальном сегменте, но более вероятная форма слияния с большей вероятностью к излишнему соответствию данных.

Сообщество использует машинного обучения чаще всего статистику ROC AUC для моделирования сравнения. Эта практика была подвергнута сомнению, потому что оценки AUC довольно зашумлены и страдают проблемами. Тем не менее, согласованность AUC как показателя системы показателей производительности была подтверждена с помощью системы равномерного распределения скорости, и AUC была связана с рядом других показателей производительности, как оценка Бриера.

Другая проблема с ROC AUC заключается в том, что При уменьшении кривой ROC до одного числа игнорируется тот факт, что речь идет о компромиссах между различными системами или достижением точной производительности, а также игнорируется возможность устранения вогнутости, поэтому рекомендуются альтернативные меры, такие как информированность или DeltaP. Эти меры по эквивалентности коэффициенту Джини для одной точки прогноза с DeltaP '= Informedness = 2AUC-1, в то время как DeltaP = Markedness представляет двойственную (а именно, прогнозирование прогноза из реального класса), а их среднее геометрическое - Коэффициент корреляции Мэтьюза.

В то время как ROC AUC оценивается от 0 до 1 - с неинформативным классификатором, дающим 0,5 - альтернативные меры, известные как Информированность, достоверность и коэффициент Джини (в случае единой параметра или единственной системы) все имеют то преимущество, что представляет собой случайную производительность, в то время как 1 идеальную производительность, а представляет собой "извращенный" случай полной информации, всегда дающей неправильный ответ. Приведение случайной производительности к 0 позволяет интерпретировать альтернативные шкалы как статистику Каппа. Было показано, что информированность имеет желательные характеристики для машинного обучения по другим распространенным определениям каппы, такими как Коэн Каппа и Флейсс Каппа.

Иногда может быть более полезным взглядов на конкретную область Кривая ROC, а не вся кривая. Можно вычислить частичную AUC. Например, можно сосредоточиться на участке кривой с низким уровнем ложноположительных результатов, который часто представляет первоочередной интерес для скрининговых тестов населения. Другой распространенный подход к задачам классификации, в котором P ≪ N (распространенный в приложениях биоинформатики), заключается в использовании логарифмической шкалы для оси x.

Площадь ROC под кривой также называется c-статистикой или c статистикой .

Другие показатели

Кривая TOC

Общая рабочая характеристика ( TOC) также описывает диагностические возможности, выявляя больше, чем ROC. Для каждого порога ROC показывает два отношения: TP / (TP + FN) и FP / (FP + TN). Другими словами, ROC выявляет совпадения / (попадания + промахи) и ложные срабатывания / (ложные срабатывания + правильные отклонения). С другой стороны, TOC показывает общую информацию в таблице непредвиденных обстоятельств для каждого порога. Метод TOC раскрывает всю информацию, которую использует метод ROC, плюс дополнительную информацию, которая не раскрывает каждую информацию в таблице непредвиденных обстоятельств для каждого порога. TOC также популярный AUC ROC.

Кривая ROC

Эти цифры представляют собой кривые TOC и ROC с одинаковыми данными и порогами. Рассмотрим точку, которая соответствует порогу 74. Кривая TOC показывает совпадение равного 3 и, следовательно, количество промахов, 7. Кроме того, кривая TOC показывает, что количество ложных тревог равно 4 и количество правильных отклонений равно 16. В любой заданной точкой кривой ROC можно получить значения для неправильных ложных тревог / (ложные ошибки + правильные отклонения) и совпадений / (совпадения + промахи). Например, на пороге 74 очевидно, что координата x равна 0,2, а координата y равна 0,3. Однако этих двух значений для построения всех таблиц непредвиденных обстоятельств два на два.

График компромисса ошибок обнаружения

Пример графика DET

Альтернативной кривой ROC является график компромисса обнаружения ошибок (DET), который отображает частоту ложноотрицательных результатов (пропущенные обнаружения) по сравнению с частотой ложных срабатываний ( ложных тревог) по нелинейно преобразованным осям x и y. Функция преобразования - это функция квантиля нормального распределения, т. Е. Обратному кумулятивному нормальному распределению. Фактически, это то же преобразование, что и zROC, приведенное ниже, за исключением того, что используется дополнение к частям попаданий, коэффициент промахов или ложноотрицательный коэффициент. Эта альтернатива тратит больше графической области на интересующую область. Большая часть территории Китайской Республики малоинтересна; в первую очередь важна область, плотно прилегающая к оси Y и верхнему левому углу, который из-за использования частот промахов вместо дополнения, частоты попаданий, является нижним левым углом на графике DET. Кроме того, графики DET обладают полезным свойством линейности и линейного порогового поведения для нормальных распределений. График DET используется в сообществе автоматически распознавания говорящего, где впервые было использовано название DET. Анализ производительности ROC на графике с этим перекосом осей использовался психологами в исследованиях восприятия в середине 20-го века, где это было названо «бумагой двойной вероятности».

Z-score

Если к кривой ROC применяется стандартная оценка , кривая будет преобразована в прямую линию. Этот z-показатель основан на нормальном распределении со средним значением, равным нулю, и стандартным отклонением, равным единице. В теории прочности необходимо предположить, что zROC не только линейный, но и наклон 1,0. Нормальное распределение целей (изучаемые объекты, которые субъекты должны вспомнить) и приманок (неизученные объекты, которые субъекты пытаются вспомнить) является факторами, которые используют zROC быть линейным.

Линейность кривой zROC зависит от стандартных отклонений распределения силы цели и приманки. Если стандартные отклонения равны, наклон будет 1,0. Если стандартное отклонение распределения силы цели больше, чем стандартное отклонение распределения силы приманки, то наклон будет меньше на 1,0. В большинстве исследований было обнаружено, что наклон кривой zROC обычно между 0,5 и 0,9. Многие эксперименты дали наклон zROC 0,8. Наклон 0,8 означает, что изменчивость распределения силы цели на 25% больше, чем изменчивость распределения силы приманки.

Другая используемая переменная - d '(d prime) (обсуждается выше в разделе «Другие меры»), которые легко можно выразить через z-значения. Используется широко распространенные параметры, соблюдение которых выполняется выше.

Z-оценка кривой ROC всегда линейна, как предполагалось, за исключением случаев. Модель знакомого-вспоминания Йонелины представляет собой двумерное описание памяти узнавания. Вместо того, чтобы испытуемый просто отвечал «да» или «нет» на конкретный ввод, он придает вводным данным ощущение знакомства, которое действует как исходная кривая ROC. Однако что меняется, так это параметр для Воспоминания (R). Воспоминания предполагаются по принципу «все или ничего», и это важнее привычки. Если бы не было компонента воспоминания, zROC имел бы прогнозируемый наклон, равный 1. При добавлении компонента воспоминания кривая zROC будет вогнутым вверх с уменьшенным наклоном. Эта разница в форме и наклоне является дополнительным элементом изменчивости из-за того, что некоторые элементы вспоминаются. Пациенты с антероградной амнезией не могут вспомнить, поэтому их кривая zROC Yonelinas будет иметь наклон, близкий к 1,0.

История

Кривая ОКР была впервые во время Второй мировой войны для анализа радиолокационных сигналов до того, как он был использован в теории обнаружения сигналов. После атаки на Перл-Харбор в 1941 году армия США начала новые исследования с целью повысить предсказуемость правильно обнаруженных японских самолетов по сигналам их радаров. Для этих устройств измерили способность оператора радиолокационного приемника выполнять эти важные функции, что было названо рабочей характеристикой приемника.

В 1950-х годах кривые ROC использовались в психофизике для оценки обнаружение слабых сигналов человеком (а иногда и животными). В медицине ROC-анализ широко использовался при оценке диагностических тестов. Кривые РПЦ также широко используются в эпидемиологии и медицинские исследованиях и часто упоминаются в связи с доказательной медициной. В радиологии ROC-анализ является распространенным методом новых радиологических методов. В социальных науках ROC-анализ часто пользуется точностью ROC - распространенным методом точности моделей вероятности дефолта. Кривые ROC широко используются в лабораторной медицине для оценки диагностической точности теста, выбора оптимального порогового значения теста и сравнения диагностической точности нескольких тестов.

Кривые ROC также оказались полезными для оценки методов машинного обучения. Первое применение ROC в машинном обучении было сделано Спакманом, который использует данные кривых ROC для сравнения различных алгоритмов классификации .

Кривые ROC также используются для проверки прогнозов в метеорологии.

Кривые ROC за пределами двоичной классификации

Расширение кривых ROC для задач классификации с более чем двумя классами всегда было громоздким, поскольку степени свободы возрастают квадратично с количеством классов, а Пространство ROC имеет размеры c (c - 1) {\ displaystyle c (c-1)}c(c-1), где c {\ displaystyle c}c- количество классы. Некоторые подходы были сделаны для частного случая с тремя классами (трехсторонний ROC). Расчет объема под поверхностью ROC (VUS) был проанализирован и изучен как показатель производительности для мультиклассовых задач. Однако из-за сложности аппроксимации истинного VUS некоторые другие подходы, основанные на расширении AUC, более популярны в качестве метрики оценки.

Учитывая успех кривых ROC для оценки моделей классификации, также было исследовано расширение кривых ROC для других контролируемых задач. Известными предложениями по проблемам регрессии являются так называемые

Последняя правка сделана 2021-06-03 10:18:02
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте