Публикации по теме 'explainable-ai'


Объяснимые Нет Линейные модели — Часть I : Обзор
Начинающие инженеры машинного обучения / специалисты по данным обычно думают, что их работа только что закончена, когда они просто обучают «хорошую» модель с точки зрения точности, воспроизводимости и т. д. Неправильный ! , ваша работа только началась . Заинтересованные стороны (владелец продукта, бизнес-клиент или даже обычный конечный пользователь) спросят вас: Почему модель дает нам эти прогнозы/рекомендации? Легко спросить, трудно ответить. Но почему? По двум причинам:..

Объяснимый ИИ
Видя внутреннюю часть модели в данных мозговых волн ЭЭГ с помощью Glass-box Эта статья написана Угуром Зия Чифчи и Алпарсланом Месри . Объяснимый ИИ необходим для повышения контроля над моделью машинного обучения. Для этого есть несколько техник и библиотек. В этой статье в рамках эксперимента (мозговые волны ЭЭГ) мы представим библиотеку «интерпретации» Python и модель EBM, чтобы показать, как объяснимый ИИ может повысить способность исследователя отлаживать модель. В..

Интерпретация моделей машинного обучения: проблемы и решения
Машинное обучение произвело революцию во многих отраслях, от финансов до здравоохранения и электронной коммерции. Однако с ростом сложности моделей машинного обучения становится все труднее интерпретировать, как эти модели делают прогнозы или решения. Это отсутствие интерпретируемости может стать серьезным препятствием для организаций, которым необходимо понять причины, лежащие в основе результатов модели, особенно в регулируемых отраслях или в приложениях, где на карту поставлены..

Объяснимый ИИ и визуальная интерпретируемость — Предыстория (часть 6)
Эта статья продолжает предварительные исследования для исследования «Объяснимое глубокое обучение и визуальная интерпретируемость». Хорошим примером многослойного персептрона является нейронная сеть с прямой связью, включающая несколько последовательных уровней композиции функций. Каждый слой выводит набор векторов, которые служат входными данными для следующего слоя, который, в свою очередь, представляет собой набор функциональных единиц. Существует три типа слоев: Входной слой..

Критические инструменты для этичного и объяснимого ИИ
Критические инструменты для этичного и объяснимого ИИ Руководство по основным библиотекам и наборам инструментов, которые помогут вам создавать надежные, но надежные модели. Модели машинного обучения произвели революцию во многих областях, предоставив замечательные возможности прогнозирования. Однако по мере того, как эти модели становятся все более распространенными, необходимость обеспечения справедливости и интерпретируемости становится серьезной проблемой. Создание справедливых..

Цены на бриллианты — SHAP стоимость карата, огранки, цвета и т. д.
SHAP значения карата, огранки, цвета и т. д. В этой статье я использую общедоступный набор данных, который содержит информацию о 54 000 записей данных о бриллиантах из прайс-листа на бриллианты Tiffany & Co . Набор данных публично доступен на Kaggle . Полную информацию об анализе можно найти в этой общедоступной записной книжке Kaggle . Шаг 1 — предварительная обработка данных Здесь предварительная обработка данных состоит из следующих шагов: log10-преобразование нашей..

Методы XAI — Деконволюция
ПОНИМАНИЕ МЕТОДОВ XAI Методы XAI — деконволюция Что такое деконволюция? Как он использует структуру CNN для интерпретируемости? Что такое деконволюция? Идея Деконволюции [2] взята из работы Zeiler et al. [1] о деконволюционных сетях ( деконволюционные сети }). Сети деконволюции предназначены для работы аналогично сверточным сетям, но в компонент фильтра и т. д.), и их можно обучать, используя неконтролируемый подход. При деконволюционном подходе к объяснению модели мы..