Матрица путаницы — это метод измерения производительности для классификации машинного обучения. Это своего рода таблица, которая помогает вам узнать производительность модели классификации на наборе тестовых данных, для которых известны истинные значения. Сам термин «матрица путаницы» очень прост, но связанная с ним терминология может немного сбивать с толку. Здесь дается простое объяснение этой техники.

Понимание TP, TN, FP и FN в матрице путаницы

  • TP: True Positive: предсказанные значения правильно предсказаны как фактические положительные
  • FP: предсказанные значения неверно предсказали фактическое положительное значение. т. е. отрицательные значения прогнозируются как положительные
  • FN: ложноотрицательный: положительные значения прогнозируются как отрицательные
  • TN: True Negative: предсказанные значения правильно предсказаны как фактические отрицательные значения.

Вы можете вычислить проверку точности из матрицы путаницы:

Пример матрицы путаницы:

Матрица путаницы — это полезный метод машинного обучения, который позволяет измерять полноту, точность, точность и кривую AUC-ROC. Ниже приведен пример, чтобы узнать термины True Positive, True Negative, False Negative и True Negative.

Истинный положительный результат:

Вы прогнозируете позитив, и это оказывается правдой. Например, вы предсказали, что Франция выиграет чемпионат мира, и она выиграла.

Верно отрицательный:

Когда тебе предсказывали негатив, и это правда. Вы предсказали, что Англия не выиграет, и она проиграла.

Ложное срабатывание:

Ваш прогноз положительный, и он неверен.

Вы предсказывали, что Англия выиграет, но она проиграла.

Ложноотрицательный:

Ваш прогноз отрицательный, и результат тоже ложный.

Вы предсказывали, что Франция не победит, но она победила.

Интересное понимание ошибок типа 1 и типа 2

Тип 1 — Ошибка

Тип 2 — Ошибка

Рассчитать матрицу путаницы

Точность против отзыва

Точность говорит нам, сколько из правильно предсказанных случаев на самом деле оказались положительными.

Вот как рассчитать Precision:

Это определит, надежна ли наша модель или нет.

Припоминание говорит нам, сколько реальных положительных случаев мы смогли правильно предсказать с помощью нашей модели.

И вот как мы можем вычислить Recall:

F1-счет

На практике, когда мы пытаемся повысить точность нашей модели, полнота снижается, и наоборот. Оценка F1 отражает обе тенденции в одном значении:

Показатель F1 – это гармоническое среднее значение точности и полноты, поэтому он дает общее представление об этих двух показателях. Он максимален, когда Точность равна Отзыву.

Я надеюсь, что читатели получили базовое представление о матрице путаницы и узнали, как работает матрица путаницы.

Спасибо