Публикации по теме 'expectation-maximization'


Модели гауссовых смесей
Один из самых простых способов оценить плотность распределения — использовать параметрическую модель для определения распределения. Например, можно предположить, что данные следуют распределению Гаусса, и попытаться подогнать выборки под соответствующее распределение. Подгонка здесь относится к оценке среднего значения и дисперсии — параметров распределения Гаусса. Это работает хорошо, пока распределение является одномодальным. Подгонка одной гауссианы к мультимодальному распределению..

Ожидание-Максимизация
Алгоритм максимизации ожидания (EM) — это мощный итерационный метод оценки параметров статистических моделей в тех случаях, когда их уравнения не могут быть решены напрямую. Как правило, эти модели содержат латентные (скрытые) переменные в дополнение к неизвестным параметрам вероятностных распределений. Алгоритм EM используется в различных приложениях машинного обучения, таких как распознавание речи, классификация изображений и NLP (обработка естественного языка). Эта статья немного..

Реализация алгоритма максимизации ожиданий с нуля с помощью Python
Демистификация ужасов ЭМ-алгоритма путем создания его с нуля Алгоритм максимизации ожидания (EM) — это метод статистического машинного обучения для нахождения оценок максимального правдоподобия моделей с неизвестными скрытыми переменными. Я уверен, что это предложение не будет иметь никакого смысла для некоторых из вас. Не беспокоиться! Эта статья направлена ​​на то, чтобы демистифицировать уравнения ужасов и загадочные словари алгоритма EM. К сожалению, без должной математики..