Публикации по теме 'gradient-descent'


Логистическая классификация для инженерных приложений с использованием градиентного спуска и нормального уравнения…
В моей последней статье под названием Применение алгоритмов градиентного спуска и нормального уравнения для разработки математических моделей для инженерных целей обсуждалось использование методов градиентного спуска и нормального уравнения для линейной регрессии, которая дает непрерывный результат. В данной статье рассматривается логистическая классификация, дающая дискретные результаты. Давайте представим это на примере реального инженерного контекста: если инженеры хотят изучить,..

Математика для старших классов машин: дифференцируемый код
Дифференцируемое программирование движет миром машинного обучения. PyTorch, TensorFlow и любой другой современный фреймворк машинного обучения полагаются на него, когда дело доходит до фактического обучения. Достаточная причина для того, чтобы любой, кто хотя бы отдаленно интересуется ИИ, познакомился с дифференцируемым программированием. Мы приглашаем вас ознакомиться с двумя частями объяснения концептуальной основы, лежащей в основе большей части современной индустрии искусственного..

DeepClassifyML, неделя 2, часть 3
Этот пост является частью серии Стажировка в Hasura и посвящен настройке Hausra для местного развития. В дополнение к этому мы, наконец, видим, как нейронная сеть обучается . Также ознакомьтесь с моими предыдущими сообщениями: Часть 1 , Часть 2 , Часть 3 , Часть 4 , где представлена ​​идея приложения и некоторые основы компьютерного зрения и нейронных сетей. Настроить Hasura для локальной разработки было очень просто, поскольку инструкции, предоставленные Hasura в этом README..

Реализация линейной регрессии с нуля
В этом уроке вы можете узнать, как работает алгоритм линейной регрессии, и реализовать его с нуля на python, используя Gradient Descent. В статистике линейная регрессия — это линейный подход к моделированию взаимосвязи между зависимой переменной и одной или несколькими независимыми переменными. Пусть X — независимая переменная, а Y — зависимая переменная. Основная цель линейной регрессии — найти линию/плоскость, которая лучше всего соответствует точкам данных. мы знаем уравнение..

Логистическая регрессия с нуля
Аннотация. Логистическая регрессия — это фундаментальный алгоритм машинного обучения, в котором представлены линейные модели, функция активации, градиентный спуск и обратное распространение. В этой статье мы сосредоточимся на реализации логистической регрессии, градиентного спуска, оптимизатора Адама и бинарной функции перекрестной энтропийной потери с нуля с использованием Python и хорошо разберемся в алгоритмах. Для этой реализации используется общедоступный набор данных, называемый..

Оптимизатор: Adagrad (адаптивный градиент)
Оптимизатор: Adagrad (адаптивный градиент) Цель этой статьи — облегчить понимание, но в то же время не разбавлять математику темы. Ожидается, что читатель хорошо разбирается в стохастическом градиентном спуске (SGD). В SGD и SGD+Momentum скорость обучения (α) всегда является постоянным значением, т. е. скорость обучения одинакова для всех весов на каждой итерации на этапе обучения. Но в Adagrad каждый вес имеет разную скорость обучения на каждой итерации. Теперь вопрос, зачем это..

Популярные алгоритмы оптимизации машинного обучения
Оптимизация в машинном обучении — это итеративный процесс поиска правильных прогнозов с учетом набора входных данных. На каждой итерации цель состоит в том, чтобы уменьшить погрешность между вашими прогнозируемыми значениями и фактическими значениями, также известными как истинные значения. Оптимизация в глубоком обучении имеет несколько реализаций. Хороший метод оптимизации потерь должен по возможности сходиться к глобальному минимуму и избегать таких ловушек, как плато, седла и..