Публикации по теме 'mathematics'


Математические основы линейной регрессии
Линейная регрессия — это самый простой, но самый интуитивно понятный алгоритм машинного обучения, поскольку он позволяет легко сопоставить значение «прогноза» с математической основой. Я написал эту статью после того, как много прочитал о математике, лежащей в основе работы различных алгоритмов машинного обучения. После прочтения нескольких статей и документов по теме я попытался написать эту статью, используя всю информацию и знания, которые я получил. Я попытался сжать математику и..

Машина опорных векторов - формулировка и вывод
Прогнозирование качественных ответов в машинном обучении называется классификацией . SVM или машина опорных векторов - это классификатор, который максимизирует маржу. Цель классификатора в нашем примере ниже - найти линию или (n-1) размерную гиперплоскость, которая разделяет два класса, присутствующих в n-мерном пространстве. В нашем примере, приведенном ниже, мы видим, что любой алгоритм обучения выдаст любую из указанных строк, но какая строка может быть лучшей? Интуитивно..

Математика для глубокого обучения (часть 1)
Я начал свое путешествие по науке о данных и машинному обучению после получения докторской степени. У меня есть докторская степень в области чистой математики, и я заинтересовался машинным обучением из-за множества интересных приложений. Как чистый математик я сомневался в том, как использовать свои знания для понимания алгоритмов, но я также думаю, что очень важно не оставаться только в теории, поэтому я начал проходить много курсов. В своем путешествии я замечаю, что лучше сохраняю..

Введение в байесовский вывод — Часть 3
В прошлой статье мы говорили об оценке MAP, которая используется для выбора оптимального параметра θ* для максимизации апостериорного распределения. Мы также видели два примера того, как это можно сделать: один для среднего значения нормального распределения с известной дисперсией и для оценки смещения данной монеты. В этой статье мы подробнее поговорим о Байесовском методе наименьшей среднеквадратичной оценки (LMS) и Байесовском линейном методе наименьшего среднего квадрата (LLMS) ...

Двухмерные матричные преобразования для компьютерного зрения
Масштабирование, вращение и перевод с помощью матриц преобразования для компьютерного зрения В Computer Vision часто необходимо масштабировать, переводить или поворачивать изображение. Библиотеки, такие как OpenCV, позволяют легко выполнять эти действия, однако понимание того, как эти преобразования работают на низком уровне, жизненно важно для возможности применения более сложных преобразований, а также для возможности оптимального использования библиотек компьютерного зрения...

КОМПЛЕКСНОЕ РУКОВОДСТВО ПО ЛИНЕЙНОЙ РЕГРЕССИИ
Введение: В современном мире существует множество различных алгоритмов. Прежде чем углубляться в более сложные методы, важно усвоить основы. Одним из таких основополагающих алгоритмов является линейная регрессия. В этом руководстве мы предоставим всестороннее понимание линейной регрессии, включая ее основные концепции, реализацию в коде и распространенные вопросы на собеседованиях. Что такое линейная регрессия? Линейная регрессия — это контролируемый алгоритм машинного..

Косинусное подобие и его использование в рекомендательных системах
Косинусное сходство — это показатель, основанный на косинусном расстоянии между двумя объектами. Его можно использовать в системах рекомендаций, таких как рекомендации фильмов и книг. В этой статье мы узнаем, что это такое и как с его помощью можно давать рекомендации, определяя похожие элементы. Введение Системы рекомендаций являются частью нашей повседневной жизни. Просто приведу несколько распространенных примеров: мы получаем рекомендации, когда совершаем покупки в Интернете на..