Введение

В мире машинного и глубокого обучения понимание математических основ различных алгоритмов и функций потерь имеет решающее значение. Два таких понятия, которые часто встречаются, — это КЛ-дивергенция (дивергенция Кульбака-Лейблера) и двоичная кросс-энтропия (BCE), часто используемые в таких задачах, как классификация, оценка вероятности и теория информации. В этом блоге мы углубимся в глубокую связь между этими двумя, казалось бы, разными показателями и исследуем, как они используются в разных контекстах.

Понимание дивергенции KL

Что такое KL-дивергенция?

KL Дивергенция — это мера разницы между двумя распределениями вероятностей. Он количественно определяет, насколько одно распределение отличается от второго эталонного распределения. Она также известна как относительная энтропия и часто обозначается как KL(P || Q), где P и Q — два сравниваемых распределения вероятностей.

КЛ: Дивергенция в теории информации

KL Дивергенция уходит корнями в теорию информации и используется для измерения того, насколько эффективно одно распределение вероятностей может быть представлено с использованием другого. По сути, это говорит нам, сколько информации теряется, когда мы используем Q для аппроксимации P.

Формула дивергенции KL

Формула расхождения KL между двумя распределениями вероятностей P и Q:

Введение в двоичную кросс-энтропию

Что такое двоичная кросс-энтропия?

Двоичная перекрестная энтропия, также известная как журнальные потери или логистические потери, представляет собой широко используемую функцию потерь в машинном обучении, особенно в задачах двоичной классификации. Он измеряет различие между истинными двоичными метками и предсказанными вероятностями.

Формула двоичной кросс-энтропии

Формула двоичной перекрестной энтропии для одной точки данных с истинной меткой y и прогнозируемой вероятностью p:

Связь между KL-дивергенцией и бинарной кросс-энтропией

Связь через распределения вероятностей

Интригующая связь между KL-дивергенцией и двоичной кросс-энтропией заключается в их совместном использовании вероятностных распределений. Фактически, двоичную кросс-энтропию можно рассматривать как частный случай КЛ-дивергенции.

Двоичная кросс-энтропия как особый случай

Когда мы рассматриваем задачу двоичной классификации, в которой у нас есть два распределения вероятностей, P (истинное распределение меток) и Q (прогнозируемое распределение), двоичная перекрестная энтропия по сути представляет собой KL-дивергенцию между P и Q с фиксированным эталонным распределением:

Где H( P) — энтропия истинного распределения P, постоянная величина, поскольку она не зависит от предсказаний.

Практические последствия

Обучение нейронных сетей

На практике при обучении нейронных сетей бинарной классификации минимизация потерь двоичной перекрестной энтропии эквивалентна минимизации расхождения KL между истинным распределением меток и предсказанным распределением меток.

Регуляризация

Дивергенция KL также может использоваться в качестве термина регуляризации при обучении нейронных сетей. Это способствует тому, чтобы прогнозируемое распределение было близко к эталонному распределению.

Заключение

В заключение, KL-дивергенция и двоичная кросс-энтропия тесно связаны благодаря использованию вероятностных распределений. Бинарную кросс-энтропию можно рассматривать как частный случай KL-дивергенции, что делает ее мощным инструментом для измерения несходства между двумя распределениями вероятностей. Понимание этой взаимосвязи имеет решающее значение для эффективного использования этих концепций в различных приложениях машинного и глубокого обучения.

Понимая математические связи между этими двумя концепциями, ученые, работающие с данными, и специалисты по машинному обучению могут получить более глубокое понимание своих моделей и принимать более обоснованные решения при выборе функций потерь для своих конкретных задач.