Публикации по теме 'shap'


Демистификация нейронных сетей с помощью значения Шепли
Распаковка черного ящика с помощью ценности Шепли и теории игр Объяснимость глубокого обучения быстро набирает обороты, несмотря на его короткую историю. Объяснимый ИИ возник из-за растущего спроса на честность и справедливость решений нейронных сетей и на избежание предвзятости закодированного кода. Так называемый ИИ черный ящик может делать предположения и прогнозы в отношении одной сущности, основываясь на предвзятости, которая резонирует с реальным миром. Появилось множество..

Понимание значений Shap (аддитивные пояснения Shapley) для машинного обучения
Значения Шепли, часто называемые значениями Шэпа, представляют собой концепцию из теории кооперативных игр, которая была адаптирована для использования в интерпретируемости моделей машинного обучения. Значения Shap количественно определяют вклад каждой функции в прогноз конкретного экземпляра. В контексте машинного обучения значения Shap измеряют, насколько значение каждого признака отклоняется от ожидаемого прогноза при рассмотрении всех возможных комбинаций признаков. Они обеспечивают..

ML: методы интерпретации моделей
Реализация PDP, ICE ELI5, LIME, SHAP на табличном наборе данных Что такое интерпретируемость модели? Такова человеческая природа, что мы не доверяем тому, чего не понимаем. Алгоритмы искусственного интеллекта и машинного обучения — одни из самых мощных технологий, которые есть в нашем распоряжении, но они также и самые непонятые. Следовательно, одна из наиболее важных обязанностей специалиста по обработке и анализу данных — передавать сложную информацию простым для понимания способом...

Сравнение важности макроданных и TA по ежедневным изменениям цен ETF с использованием LSTM
Введение В этом посте мы рассмотрим несколько популярных технических индикаторов и немного данных макрокорреляции, а также изучим, как конфигурация обычно используемой нейронной сети LSTM повышает точность прогнозирования цен на активы. Мы будем наблюдать, как наши модели определяют приоритеты различных факторов, таких как ставка по федеральным фондам, данные отчета о потребительских расходах, RSI, полосы Боллинджера, валютные пары, цены на нефть и многое другое. Несколько секторов..

Краткое руководство для начинающих по объяснимости машинного обучения
Когда я впервые начал изучать объяснимость машинного обучения, мне было невероятно сложно найти единственный ресурс, который я мог бы использовать, не углубляясь в сложный жаргон и не полагаясь на многочасовые курсы по науке о данных. Мне было бы очень полезно, если бы у меня было простое руководство по основным концепциям объяснимости машинного обучения, тому, как они работают и, самое главное, как их применять. Итак, сегодня я попытаюсь обойти крутую кривую обучения и предложить простое..

Интерпретация сложных моделей со значениями SHAP
Примечание. Изначально этот пост был опубликован на веб-сайте Canopy Labs и описывает работу, которую мне посчастливилось делать там как специалисту по данным. Важный вопрос в области машинного обучения - почему алгоритм принял определенное решение. Это важно по разным причинам. Как конечный пользователь, я с большей вероятностью поверю рекомендации, если пойму, почему она была мне предоставлена. Как организация, понимание того, что клиенты совершили покупку, потому что эта кампания..

Использование значений Шепли для уменьшения смещения в моделях машинного обучения
Введение С ростом популярности моделей машинного обучения, таких как ChatGPT, проблема предвзятости стала более заметной. OpenAI, исследовательская организация в области искусственного интеллекта, стоящая за ChatGPT, публично заявила, что работает над тем, чтобы сделать ChatGPT более справедливым, точным и менее предвзятым после серии сообщений о недопустимых результатах . Несмотря на ограждения, системы машинного обучения, включая ChatGPT, находятся в стадии разработки. Модели..