Публикации по теме 'explainable-ai'


Интерпретируемость и объяснимость модели: подробное руководство
В этой статье обсуждаются методы и лучшие практики для объяснения прогнозов, сделанных моделями на основе деревьев, нейронных сетей и глубокого обучения. Введение в объяснимость модели По мере того, как модели машинного обучения становятся все более распространенными в процессах принятия решений, важно понимать, как эти модели делают прогнозы, и иметь возможность объяснить процесс принятия решений широкому кругу аудитории. Это известно как объяснимость модели или способность..

Значения SHAP: интерпретируемость машинного обучения и выбор функций стали проще.
Интерпретируемость машинного обучения с помощью кода с помощью SHAP. Интерпретируемость машинного обучения становится все более важной, особенно по мере усложнения алгоритмов машинного обучения. Насколько хорош ваш алгоритм машинного обучения, если его нельзя объяснить? Менее производительные, но объяснимые модели (такие как линейная регрессия) иногда предпочтительнее более производительных, но моделей черного ящика (таких как XGBoost или нейронные сети). Вот почему исследования..

Прогноз загрязнения воздуха
Воздух важен для человека, и с момента индустриализации загрязнение окружающей среды увеличивается. Ежегодно миллионы преждевременных смертей вызваны плохими условиями окружающей среды, поэтому загрязнение воздуха является крупнейшим экологическим риском в мире. Мониторинг и понимание качества воздуха имеют решающее значение для здоровья и изменения климата. Результатом загрязнения воздуха является сочетание высоких выбросов и неблагоприятной погоды. Улучшение качества воздуха может..

Визуализация сверточных сетей
Понимание и визуализация промежуточных слоев CNN Мы все знаем, что сверточные нейронные сети (CNN) широко известны и используются для задач классификации изображений, причины их эффективности и конкретные шаблоны, изученные каждым уровнем CNN, остаются несколько загадочными. В этой статье я попытаюсь изучить визуализацию выходных данных каждого сверточного слоя, чтобы получить представление о наблюдаемых закономерностях и пролить свет на замечательную производительность CNN. После..

Краткое руководство для начинающих по объяснимости машинного обучения
Когда я впервые начал изучать объяснимость машинного обучения, мне было невероятно сложно найти единственный ресурс, который я мог бы использовать, не углубляясь в сложный жаргон и не полагаясь на многочасовые курсы по науке о данных. Мне было бы очень полезно, если бы у меня было простое руководство по основным концепциям объяснимости машинного обучения, тому, как они работают и, самое главное, как их применять. Итак, сегодня я попытаюсь обойти крутую кривую обучения и предложить простое..

Объяснимое обнаружение объектов — практическое руководство
Мы хотим получить понятные человеку причины для определенного модельного решения. Для этого мы используем библиотеку SHAP для расчета значений Шепли. В одном предложении значения Шепли определяют предельный вклад функции в результат модели. Они учитывают фоновое распределение других признаков. Подробное объяснение вы можете найти здесь . В этой статье мы строим модель, в которой мы можем выборочно удалить часть ввода, т.е. скрыть участки пикселей на изображении. Эти патчи служат..

Объяснимый ИИ: когда жизнь дает вам ЛАЙМ, делайте мохито
«Я протестировал свою модель машинного обучения на наборе данных перекрестной проверки, и она сгенерировала выдающиеся показатели. Не может быть, чтобы он не работал хорошо в продакшене», — говорят многие специалисты по данным. Но лишь очень немногие из таких моделей действительно хорошо зарекомендовали себя в производстве. И очень часто эта непредсказуемость приводит компании к мысли, что машинное обучение может быть более точным, но ненадежным. И по той же самой причине компании,..