Нетехническое резюме того, почему объяснимый искусственный интеллект важен

Объяснимый искусственный интеллект (XAI) — это область практики, в которой мы объясняем, почему система искусственного интеллекта (ИИ) принимает свои решения. Понятно, что мы должны заботиться об ИИ из-за преимуществ и проблем, которые он уже добавляет в нашу жизнь. Но почему кого-то, кто не является компьютерным фанатом или ботаником в области политики, должен интересовать XAI?

Доверие

Люди очень доверяют компьютерам. Мы склонны полагать, что если «машина так говорит», то это беспристрастный, безошибочный источник информации.

Во многих случаях компьютеры и программное обеспечение, которым мы доверяем, тестируются, проверяются и проверяются. Но большинство форм ИИ невозможно проверить с помощью традиционных методов. Такие системы искусственного интеллекта отличаются тем, что они принимают решения на основе данных или правил, которым они подвергались. И они могут быть предвзятыми (из-за незнания или намерения) в зависимости от этого воздействия.

В 2012 году штат Висконсин начал использовать алгоритм искусственного интеллекта под названием COMPAS для оценки риска совершения преступления подсудимым после освобождения из тюрьмы. Однако исследование алгоритма, проведенное ProPublica в 2016 году, показало, что чернокожие были в два раза чаще, чем белые, ошибочно классифицированы как люди со средним или высоким риском, даже если они в конечном итоге оказались на прямой и узкой полосе после освобождения. [Статья UCLA Law Review]

Оглядываясь назад, мы видим, что COMPAS не заслуживает доверия. Но мы не знаем, где он сломался, потому что его решения нельзя понять.

Примеры других критически важных систем искусственного интеллекта с аналогичными свойствами включают определение кредитного риска, выбор военно-стратегических целей, обнаружение пешеходов и дорожных опасностей и выявление потенциальных подозреваемых.

Если вы находитесь на отрицательной стороне критического решения, принятого такими системами ИИ, ответ «машина так сказала» — неудовлетворительный ответ. Чтобы доверять решению, должно быть доступно объяснение в терминах, понятных людям. XAI необходим для предоставления таких объяснений.

Возможность

Люди могут быть расширены за счет ответственного использования технологий. Наш постоянный поиск улучшений и решений — одна из вещей, которые делают нас уникальными людьми.

Системы искусственного интеллекта помогают нам находить новые решения проблем. Вклад ИИ в такие области, как моделирование климата, создание вакцин, медицинская визуализация и спорт, делает трудным представить, что ИИ не используется в таких областях.

В исследовании 2019 года исследователи обнаружили, что система искусственного интеллекта может правильно идентифицировать рак легких на ранней стадии в 94% случаев, превосходя рентгенологов. ИИ также используется для обнаружения вакцины, определения популяции клинических испытаний и помощи в развертывании вакцины для COVID-19.

Знание того, как системы ИИ обнаруживают рак, может значительно повысить квалификацию рентгенологов и привести к прорывам в обнаружении и лечении рака. Точно так же понимание того, как системы ИИ определяют, на какую часть молекулы коронавируса нацелиться, может привести к другим успехам в создании вакцины.

Объяснения таких систем, предоставляемые XAI, могут улучшить наше понимание медицины и помочь распознать возможности лечения.

Вкратце

Мы не можем доверять ИИ, если не знаем, почему он принимает решения. И мы упускаем возможности для прорывов, когда не понимаем альтернативные подходы, изучаемые и используемые алгоритмами ИИ. Нам нужен XAI для обоих.

Специалисты по ИИ должны стремиться создавать этичные и прозрачные системы; объяснимость является частью этих усилий.

Итак, купите исследователям ИИ и специалистам по данным в вашей команде чашку кофе и выпечку по их выбору; им нужен кофеин и ваша поддержка, чтобы продолжать работать над тем, чтобы сделать ИИ объяснимым.