Эта статья является продолжением Введение в серию глубокого обучения.

Забавный факт: логистическую регрессию можно считать однослойной нейронной сетью!

Не убежден? Позволь мне объяснить!

Напомним, что нейронные сети предполагают получение набора входных значений и прогнозирование выходных данных. Например, когда мы пытаемся спрогнозировать цену акции, мы загружаем кучу исторических данных в магические функции, а затем получаем прогнозируемую цену акции.

Видеть! Не очень похоже?

В нейронной сети слой, куда вводятся все данные, называется входным слоем, и этот слой считается слоем 0.

Возвращаясь к логистической регрессии, разве это не однослойная нейронная сеть?

Что такое логистическая регрессия?

Помните, мы затронули тему Логистическая регрессия в машинном обучении?

Многие из нас, имеющих опыт традиционного машинного обучения, часто думают о регрессии как о прогнозировании непрерывных чисел. Однако логистическая регрессия — особый ребенок в доме!

Чтобы понять это, давайте вспомним линейную регрессию, очень простую математическую функцию, которую мы все изучали еще в школе: y = mx + c.

Хорошо! Таким образом, после того, как вы получите предсказанное значение y, вы просто применяете к нему волшебную функциюSigmoid, и оно превращается в логистическую регрессию, которая дает значение от 0 до 1.

Это существенно преобразует ваш вывод как возможность предсказать что-то, чтобы быть правдой. Например, если он дает изображение кошки как 0,9, это по существу означает, что существует 90% вероятность того, что изображение является изображением кошки.

Сигмовидная функция

Так как же выглядит сигмовидная функция?

Ну, по сути, это соответствует следующей магии вашей исходной функции:

Это преобразует выходные данные вашей линейной функции, чтобы предсказать значение от 0 до 1. Другими словами, сигмоид просто добавляет нелинейность к исходной линейной функции!

Так как же нам применить сигмоид?

  1. Вы получаете предсказанный y, используя y = mx + c.
  2. Просто поместите y в сигмовидную функцию, которая может быть выражена как:

Ну вот! Таким образом, применяя уравнение сигмоиды:

  • Если y велико, выход приблизительно 1.
  • Если y мало, вывод равен приблизительно 0.

Однослойная нейронная сеть

Так что же делает нейронные сети уникальными?

Что ж, ответ не так уж и сложен. Проще говоря, нейронные сети добавляют к выходным данным некоторую нелинейность, что дает им возможность адаптироваться ко всем видам математических форм.

  • Забавный факт 1: Нелинейность просто означает… волшебную функцию / функцию активации! Как и сигмоид.
  • Забавный факт 2: Sigmoid — это функция активации. Есть и другие типы функций активации!

Теперь вы понимаете, почему логистическая регрессия — это, по сути, однослойная нейронная сеть!

Это все о логистической регрессии! Просто и понятно.

Нам нужно только переписать простое y = mx + c более причудливым образом:

  • Причудливый способ: z = wx + b

В следующей статье я расскажу о концепции градиентного спуска и о том, как нарисовать сигмовидную кривую, чтобы она лучше соответствовала нашему набору данных.

Продолжить чтение: Логистическая регрессия: градиентный спуск