Публикации по теме 'interpretability'


Введение в интерпретируемый ИИ
Интерпретируемый ИИ — это ИИ, для которого люди могут понять причину, по которой конкретная модель сделала прогноз. Нет единого мнения о том, что такое интерпретируемость в ИИ или как ее измерить, однако были предложены различные подходы для классификации и классификации интерпретируемых методов ИИ/МО. Интерпретируемые модели можно разделить на несколько категорий. Я резюмировал некоторые из этих категорий ниже. Эти классификации в значительной степени взяты из отличной онлайновой (и..

Методы XAI — Деконволюция
ПОНИМАНИЕ МЕТОДОВ XAI Методы XAI — деконволюция Что такое деконволюция? Как он использует структуру CNN для интерпретируемости? Что такое деконволюция? Идея Деконволюции [2] взята из работы Zeiler et al. [1] о деконволюционных сетях ( деконволюционные сети }). Сети деконволюции предназначены для работы аналогично сверточным сетям, но в компонент фильтра и т. д.), и их можно обучать, используя неконтролируемый подход. При деконволюционном подходе к объяснению модели мы..

Значения SHAP: интерпретируемость машинного обучения и выбор функций стали проще.
Интерпретируемость машинного обучения с помощью кода с помощью SHAP. Интерпретируемость машинного обучения становится все более важной, особенно по мере усложнения алгоритмов машинного обучения. Насколько хорош ваш алгоритм машинного обучения, если его нельзя объяснить? Менее производительные, но объяснимые модели (такие как линейная регрессия) иногда предпочтительнее более производительных, но моделей черного ящика (таких как XGBoost или нейронные сети). Вот почему исследования..

Распутывание с помощью вариационного автоэнкодера: обзор
Изучение интерпретируемого факторизованного представления уже давно используется в машинном обучении. Но с недавним развитием глубоких генеративных моделей, таких как вариационный автоэнкодер (VAE), произошел взрыв интереса к изучению такого распутанного представления. Поскольку цель любой генеративной модели состоит в том, чтобы зафиксировать основные факторы генерации данных, распутанное представление будет означать, что одна скрытая единица чувствительна к вариациям в отдельных..

Руководство для начинающих по объяснимому ИИ
В волшебном городе Dreamland гадалка поразила всех своими сверхъестественными предсказаниями. Люди всегда трепетали перед его способностями и точностью, но фокусник никогда не раскрывал своих «самых сокровенных секретов». Это было похоже на волшебную коробку, которая показывала будущее. Точно такие же модели машинного обучения генерируют прогнозы и часто называются « черными ящиками ». По мере увеличения сложности модели становится сложно объяснить, как модель пришла к предсказаниям...

Объяснимое сравнение AI Framework
Часть 2: Объяснение классификации изображений с помощью LIME Автор Тигран Аветисян Это ЧАСТЬ 2 нашей серии из 3 ЧАСТЕЙ «Сравнение объяснимых платформ ИИ». См. ЧАСТЬ 1 здесь . В ЧАСТИ 1 мы рассмотрели SHAP — популярную структуру для объяснимого ИИ, которая использует значения Шепли для объяснения моделей машинного обучения/глубокого обучения. Мы использовали SHAP для объяснения классификации цифр MNIST с помощью TensorFlow. В ЧАСТИ 2 мы рассмотрим LIME — еще одну очень..