Почему ответственный ИИ

Последствия для политики: национальные стратегии в отношении ИИ

Канада была первой страной, опубликовавшей национальную стратегию ИИ в 2017 году, с тех пор большинство стран опубликовали свои стратегии ИИ. Вы можете прочитать эти стратегии в следующих местах:

Правительство Индии, часть 1: Принципы ответственного ИИ

Правительство Индии, часть 2: Внедрение принципов ответственного ИИ

США: Отчет американского искусственного интеллекта

FDA США: План действий по программному обеспечению как медицинскому устройству (SaMD)

Европа: Мнение Комиссии по этике данных

Европа: Об искусственном интеллекте /Европейский подход к совершенству и доверию

Австралия: План действий по искусственному интеллекту

Великобритания: Национальная стратегия ИИ

Великобритания: Искусственный интеллект и общественные стандарты

Теперь, если вы просмотрите приведенные выше отчеты, вы увидите общую закономерность, их упор на наличие ответственных и этичных систем ИИ. Поэтому крайне важно внедрить ответственные методы ИИ для всех организаций.

Теперь недавняя статья об этом, опубликованная в HBR, подчеркивает необходимость ответственного управления ИИ.



Последствия затрат:

Мы много слышали о том, как решения на основе искусственного интеллекта могут расширить возможности бизнес-пользователей. Они могут с высокой точностью прогнозировать будущее, что может значительно повысить ценность бизнеса. Теперь все эти решения построены для поиска скрытых закономерностей в исторических данных. Если бизнес слишком много внимания уделяет получению моделей с очень высокой точностью, мы можем в конечном итоге включить различные доступные функции, новые современные библиотеки только для того, чтобы получить точность модели 90%+ или около того, не осознавая последующий эффект от это.

Разработка модели ИИ — это очень итеративный процесс, который, в свою очередь, является дорогостоящим делом для любой организации. Если мы разработали модель после нескольких итераций, просто чтобы потом понять, что она не соответствует принципам конфиденциальности, ответственности и безопасности. Это будет иметь огромные финансовые последствия для организации как с точки зрения затрат на разработку модели, так и с точки зрения потери преимуществ модели, альтернативных издержек и так далее.

Именно здесь для организаций становится чрезвычайно полезным включить лучшие практики ответственного ИИ прямо перед самой фазой разработки модели.

Столпы ответственного ИИ: зачем начинать раньше

Ниже приведены важные аспекты, за которые должна отвечать любая система ИИ.

Конфиденциальность

Различные системы на основе ИИ настолько хороши, что предоставляют персонализированные рекомендации, непосредственную ценность для конечного пользователя. Для этих систем мы передаем данные из различных источников данных, которые также могут содержать личную информацию. Иногда информация не может быть напрямую конфиденциальной, но сочетание нескольких функций может иногда раскрывать личную информацию.

Теперь нам нужно подумать о том, какие данные и функции мы используем в наших моделях ИИ прямо перед созданием любой модели машинного обучения. Исходя из этого, нам нужно увидеть, каковы потенциальные функции, которые могут прямо или косвенно раскрывать информацию PII. Существует несколько способов сохранить конфиденциальность в моделях машинного обучения, например, с помощью дифференциальной конфиденциальности, создания синтетических данных, сжатия данных и т. д.

Теперь, когда мы играем с данными, используя описанные выше методы, мы можем не получить такой высокой точности, как при использовании исходных данных. Именно здесь становится очень важным определиться с данными, проблемами их конфиденциальности и правильным способом их решения на ранней стадии разработки модели. Вы можете прочитать эту статью, чтобы узнать больше о дифференциальной конфиденциальности. Более увлеченным читателям я бы порекомендовал книгу Машинное обучение с сохранением конфиденциальности издательства Manning Publications.

Безопасность

Все ИТ-приложения должны иметь несколько применимых к ним уровней защиты (данные, приложение, вычисления, сеть, периметр, идентификация и доступ, физическая безопасность), что делает системы ИИ более уязвимыми. Это уникальный способ, которым мы создаем модели ИИ, библиотеки с открытым исходным кодом, которые мы используем, иногда математика, стоящая за этими моделями ИИ. Злоумышленники придумывают разные уникальные способы обмана системы. Они могут исказить обучающие данные, предоставив ложные данные системе искусственного интеллекта в реальном времени, они могут ввести состязательные примеры в производственную систему, чтобы обмануть ее, и так далее. Иногда специалисты по данным могут в конечном итоге использовать библиотеки Python с открытым исходным кодом с потенциальными уязвимостями в них.

Теперь многие из этих дополнительных рисков кибербезопасности, которые могут возникнуть из-за систем ИИ, будут зависеть от частоты обучения модели / шаблонов данных / используемых алгоритмов / используемых библиотек и так далее. Все эти выборы мы делаем на ранней стадии разработки модели. Вы можете прочитать больше о Common Vulnerabilities в системе python здесь, и почему понимание этого очень важно для специалистов по данным.

Справедливость

Любая модель машинного обучения не должна иметь каких-либо предустановленных предубеждений. Однако, поскольку мы обучаем модели с использованием реальных данных, данные содержат погрешности. Данные могут иметь систематическую ошибку из-за асимметричных выборок, антропогенной систематической ошибки, обусловленной размером выборки и т. д. Это может привести к тому, что модель машинного обучения будет предсказывать предвзятые результаты, например, отказ от нагрузки для учащегося из-за предвзятости в данных обучения.

Теперь, когда виноваты данные, для специалистов по данным становится чрезвычайно важным искать функции, которые могут внести предвзятость в модель. Это должно произойти прямо перед разработкой модели машинного обучения. Существует несколько библиотек на основе Python для обеспечения справедливости в моделях ML, например, Fair-learn, Themis-ml и т. д., пожалуйста, обратитесь здесь для получения более подробной информации. Если вам интересно понять математику, стоящую за этими алгоритмами, я бы порекомендовал прочитать следующую статью.

Прозрачность

Многие из этих систем искусственного интеллекта построены с использованием сложных алгоритмов, таких как глубокое обучение, повышение градиента и так далее. Эти алгоритмы не очень интуитивны и объяснимы, поэтому становится очень сложно объяснить причины некоторых прогнозов. Однако часто нам нужно знать, почему ИИ принимает то или иное решение, поэтому прозрачность модели ИИ очень важна. Теперь специалистам по данным необходимо понять потребность в функциональной совместимости, расширяемости и различных способах достижения этого.

Это снова обусловлено бизнес-проблемой, поэтому ее необходимо продумать в самом начале разработки модели.

Заключение

Надежность модели ИИ и подотчетность — два других важных аспекта ответственной системы ИИ. Я бы подробно рассказал о них в следующей статье. Вы также можете обратиться к этим шаблонам для построения ответственных систем ИИ.