Эта статья является продолжением Введение в серию глубокого обучения.
Забавный факт: логистическую регрессию можно считать однослойной нейронной сетью!
Не убежден? Позволь мне объяснить!
Напомним, что нейронные сети предполагают получение набора входных значений и прогнозирование выходных данных. Например, когда мы пытаемся спрогнозировать цену акции, мы загружаем кучу исторических данных в магические функции, а затем получаем прогнозируемую цену акции.
Видеть! Не очень похоже?
В нейронной сети слой, куда вводятся все данные, называется входным слоем, и этот слой считается слоем 0.
Возвращаясь к логистической регрессии, разве это не однослойная нейронная сеть?
Что такое логистическая регрессия?
Помните, мы затронули тему Логистическая регрессия в машинном обучении?
Многие из нас, имеющих опыт традиционного машинного обучения, часто думают о регрессии как о прогнозировании непрерывных чисел. Однако логистическая регрессия — особый ребенок в доме!
Чтобы понять это, давайте вспомним линейную регрессию, очень простую математическую функцию, которую мы все изучали еще в школе: y = mx + c.
Хорошо! Таким образом, после того, как вы получите предсказанное значение y, вы просто применяете к нему волшебную функцию — Sigmoid, и оно превращается в логистическую регрессию, которая дает значение от 0 до 1.
Это существенно преобразует ваш вывод как возможность предсказать что-то, чтобы быть правдой. Например, если он дает изображение кошки как 0,9, это по существу означает, что существует 90% вероятность того, что изображение является изображением кошки.
Сигмовидная функция
Так как же выглядит сигмовидная функция?
Ну, по сути, это соответствует следующей магии вашей исходной функции:
Это преобразует выходные данные вашей линейной функции, чтобы предсказать значение от 0 до 1. Другими словами, сигмоид просто добавляет нелинейность к исходной линейной функции!
Так как же нам применить сигмоид?
- Вы получаете предсказанный y, используя y = mx + c.
- Просто поместите y в сигмовидную функцию, которая может быть выражена как:
Ну вот! Таким образом, применяя уравнение сигмоиды:
- Если y велико, выход приблизительно 1.
- Если y мало, вывод равен приблизительно 0.
Однослойная нейронная сеть
Так что же делает нейронные сети уникальными?
Что ж, ответ не так уж и сложен. Проще говоря, нейронные сети добавляют к выходным данным некоторую нелинейность, что дает им возможность адаптироваться ко всем видам математических форм.
- Забавный факт 1: Нелинейность просто означает… волшебную функцию / функцию активации! Как и сигмоид.
- Забавный факт 2: Sigmoid — это функция активации. Есть и другие типы функций активации!
Теперь вы понимаете, почему логистическая регрессия — это, по сути, однослойная нейронная сеть!
Это все о логистической регрессии! Просто и понятно.
Нам нужно только переписать простое y = mx + c более причудливым образом:
- Причудливый способ: z = wx + b
В следующей статье я расскажу о концепции градиентного спуска и о том, как нарисовать сигмовидную кривую, чтобы она лучше соответствовала нашему набору данных.
› Продолжить чтение: Логистическая регрессия: градиентный спуск