Публикации по теме 'feature-selection'


Выбор признаков для классификации с использованием глубокого обучения с подкреплением
Обзор методов выбора признаков: традиционные методы vs. методы ДХО Я открываю серию обзоров, чтобы помочь ученым/студентам собирать исследовательские идеи. В этой серии я рассмотрю тему исследования, а затем изложу мотивы, связанные работы, методы и…

Boruta SHAP для выбора временных признаков
Как алгоритмы выбора признаков реагируют на дрейф данных Все знают о важности процедур выбора функций в конвейере машинного обучения. Они помогают повысить производительность при одновременном снижении размерности входных данных в соответствии с нашей контролируемой задачей. В прошлом мы сталкивались с проблемами оптимального выбора признаков, предлагая увлекательные и передовые методы фильтрации только релевантных предикторов. Мы обнаружили важность использования SHAP для выбора..

Новая школа: как машинное обучение выходит на новый уровень по сравнению с традиционным моделированием
Значение статистических моделей нельзя недооценивать. Возможность предсказать конкретные последствия для здоровья с определенным уровнем уверенности в общественном здоровье бесценна. От информирования о лучшем распределении ресурсов до разработки соответствующих программных вмешательств и обеспечения того, чтобы пациенты получали необходимую им дифференцированную помощь; модели лежат в основе анализа данных. Теперь, в зависимости от того, спросите ли вы традиционного статистика или..

Как бы вы подошли к выбору правильных параметров для логистической регрессии?
SOLVER (LIBLINEAR), C (REGULARIZATION PARAMETER), RFE, WRAPPER и FILTER методы Выбор правильных параметров для логистической регрессии необходим для достижения оптимальной производительности модели. Вот несколько шагов, которым мы можем следовать, чтобы выбрать правильные параметры: Выберите решатель : Логистическая регрессия решена …

Выбор функций с использованием FRUFS и VevestaX
Выбор функций с использованием FRUFS и VevestaX В задачах машинного обучения выбор признаков помогает уменьшить переоснащение, удалить зашумленные переменные, уменьшить объем памяти и т. д. В этой статье мы представляем новый метод, а именно FRUFS. Алгоритм основан на идее, что наиболее важным является тот признак, который может в значительной степени представлять все остальные признаки. Точно так же второй по важности признак может аппроксимировать все остальные признаки, но не так..

В выборе функций
Выбор функций? Выбор признаков — это процесс выбора подмножества важных признаков/переменных, наиболее подходящих для нашей модели или анализа. Важность Наличие нерелевантных функций снижает точность модели, а также увеличивает время ее обработки, не обеспечивая при этом никакой ценности для прогноза. Эти функции могут негативно повлиять на производительность модели. Вот несколько преимуществ выбора функций: Повышение точности Уменьшение вероятности чрезмерной подгонки Более..

Рекурсивное устранение функций с помощью Python
Рекурсивное устранение признаков (RFE) — это процесс последовательного выбора признаков, при котором признаки удаляются по одному или по несколько за раз, итерация за итерацией. Учитывая модель машинного обучения, цель рекурсивного исключения функций состоит в том, чтобы выбрать функции путем рекурсивного рассмотрения все меньших и меньших наборов функций.