Публикации по теме 'explainable-ai'


Близко ли глубокое обучение к общему искусственному интеллекту?
В последнее время было обнаружено, что достижения в области глубокого обучения решили многие сложные проблемы, такие как обнаружение объектов, классификация изображений, распознавание лиц и т. д. До появления нейронных сетей эти проблемы считались почти «сложными для NP». Кроме того, концепция трансферного обучения наряду с доступностью огромных данных сделала модели глубокого обучения невероятно точными и точными, поскольку эти модели чаще всего дают точность более 90 процентов. Однако..

Объяснимое сравнение AI Framework
Часть 2: Объяснение классификации изображений с помощью LIME Автор Тигран Аветисян Это ЧАСТЬ 2 нашей серии из 3 ЧАСТЕЙ «Сравнение объяснимых платформ ИИ». См. ЧАСТЬ 1 здесь . В ЧАСТИ 1 мы рассмотрели SHAP — популярную структуру для объяснимого ИИ, которая использует значения Шепли для объяснения моделей машинного обучения/глубокого обучения. Мы использовали SHAP для объяснения классификации цифр MNIST с помощью TensorFlow. В ЧАСТИ 2 мы рассмотрим LIME — еще одну очень..

Объяснимый ИИ (часть 2): ценности Шепли (SHAP)
Во второй части серии «Объяснимый ИИ» мы обсудим, что такое значения Шепли и как использовать значения Шепли для интерпретации предсказания модели. Значение Шепли — это понятие решения, используемое в теории игр . Это предполагает справедливое распределение как выгод, так и издержек между несколькими действующими лицами, работающими в коалиции. Ценность Шепли применяется в первую очередь в ситуациях, когда вклад каждого участника неравный, но каждый игрок работает в сотрудничестве..

Расширьте пределы объяснимости - полное руководство по библиотеке SHAP
Эта статья представляет собой руководство по расширенным и менее известным функциям библиотеки Python SHAP. Он основан на примере классификации табличных данных. Но сначала давайте поговорим о мотивации и интересе к объяснимости в Saegus, которые мотивировали и финансировали мои исследования. Объяснимость - теория Объясняемость алгоритмов занимает все больше места в дискуссиях о Data Science. Мы знаем, что алгоритмы мощные, мы знаем, что они могут помочь нам во многих задачах:..

Почему вы должны заботиться об объяснимом искусственном интеллекте (XAI)
Нетехническое резюме того, почему объяснимый искусственный интеллект важен Объяснимый искусственный интеллект (XAI) — это область практики, в которой мы объясняем, почему система искусственного интеллекта (ИИ) принимает свои решения. Понятно, что мы должны заботиться об ИИ из-за преимуществ и проблем, которые он уже добавляет в нашу жизнь. Но почему кого-то, кто не является компьютерным фанатом или ботаником в области политики, должен интересовать XAI? Доверие Люди очень..