Будет ли достаточно ответственных структур ИИ или нам нужно регулировать отрасль с помощью политики?

Подумайте о своем окружении: почти гарантировано, что какая-то форма искусственного интеллекта (ИИ) уже присутствует. Возможно, вы ежедневно взаимодействовали с ИИ, даже не подозревая об этом. ИИ в настоящее время находится в очень развитом состоянии, революционизируя нашу жизнь и бизнес-практику так, как мы даже не могли себе представить.

Ожидается, что к 2028 году мировой рынок искусственного интеллекта достигнет 648,3 млрд долларов, поэтому можно с уверенностью сказать, что ИИ быстро меняет нашу жизнь. Распространение ИИ также свидетельствует о том, что эта технология получает широкое признание, и ее внедряют почти все отрасли.

Для некоторых адаптация ИИ напрямую связана с продуктивностью и вдохновляет. Однако у многих эта аббревиатура ассоциируется со страхом. С искусственным интеллектом, обычно определяемым как любая машина, которая может выполнять задачи, которые может выполнять человеческий мозг (или даже лучше), возникает несколько других растущих проблем. Основная реализация ИИ пытается решить различные законные проблемы, включая замену рабочей силы, проблемы безопасности и отсутствие конфиденциальности.

Хотя неизбежно, что все организации в конечном итоге будут расширять использование ИИ, руководители организаций должны помнить о своем подходе к обеспечению соответствия. Чтобы спроектировать и разработать ИИ с целью расширения возможностей бизнеса и рабочего места таким образом, чтобы это справедливо влияло на клиентов и общество, требуется структура ответственного ИИ.

Что такое ИИ?

Прежде чем понять, что такое ответственный ИИ, давайте быстро рассмотрим «искусственный интеллект». ИИ — это широкий термин, который относится к любому компьютерному программному обеспечению, имитирующему поведение человека, включая обучение, критическое мышление и планирование.

Но ИИ — это обширная тема; один термин не может охватить всю учебную программу. Машинное обучение — подмножество ИИ — в настоящее время является наиболее распространенным типом реализации в бизнес-процессах. Машинное обучение — это способность автономно обрабатывать огромные объемы данных. Этот тип ИИ состоит из алгоритмов с бесконечной траекторией обучения.

Сегодня машинное обучение является одним из самых распространенных приложений ИИ. От производства до розничной торговли, от банковского дела до пекарен — предприятия расширяют спектр преимуществ машинного обучения. Согласно опросу, проведенному компанией Делойт в 2020 году, 67 процентов предприятий в настоящее время используют машинное обучение, а 97 процентов планируют сделать это в ближайшие годы.

Вы, вероятно, также взаимодействовали с машинным обучением: интеллектуальный текст на клавиатуре, рекомендации Netflix, предложения покупок Amazon и выравнивание сообщений социальных сетей в вашей ленте — все это примеры машинного обучения.

Когда дело доходит до бизнеса, машинное обучение может быстро анализировать данные, выявляя закономерности и аномалии. Таким образом, если есть несоответствие в продукции, алгоритм может уведомить делегированный орган, отвечающий за обслуживание системы.

Пример ответственного искусственного интеллекта

Возможности машинного обучения безграничны. Если люди могут продуктивно работать не более пяти часов в день, машинное обучение может достигать и поддерживать такой же уровень производительности в течение двадцати четырех часов. В отличие от других технологий, которые мы видели, ИИ может автоматически решать, что и кому рекомендовать, и даже расставлять приоритеты клиентов на основе данных.

С таким уровнем возможностей ИИ может быстро заменить переменные затраты, зависящие от людей, программным обеспечением с фиксированными затратами.

Мы обязаны минимизировать наши потери и действовать в интересах наших акционеров как топ-менеджеры. Но означает ли эта структура, что мы заменим людей алгоритмами, управляемыми ИИ?

Поскольку влияние ИИ на нашу жизнь продолжает расти, корпоративные лидеры несут большую ответственность за управление потенциальными этическими и техническими последствиями, которые может иметь ИИ. В конечном итоге это может привести к потенциальным проблемам, поэтому предприятия должны разработать простую стратегию ИИ. Вот где ИИ с ответственностью вступает в игру.

Ответственный ИИ — это процесс, который подчеркивает необходимость проектирования, разработки и развертывания когнитивных методов с этическими, эффективными и заслуживающими доверия стандартами и протоколами. Ответственный ИИ должен быть интегрирован во все аспекты процесса разработки и развертывания ИИ, который должен охватывать каждый шаг.

По мере того, как ИИ оказывает влияние на бизнес и общество, ответственность за ответственное и этичное внедрение ИИ в их соответствующих организациях ложится на руководителей. В Интернете циркулируют сотни статей в прессе о предвзятости ИИ, нарушениях конфиденциальности, утечке данных и дискриминации, что ставит лидеров бизнеса в затруднительное положение, когда дело доходит до развертывания ИИ.

Ответственный ИИ поддерживается тремя основными столпами:

Подотчетность

  • Это необходимость объяснять и обосновывать решения и действия партнерам и другим заинтересованным сторонам, с которыми взаимодействует система. Подотчетность в ИИ реализуется только тогда, когда выводы можно вывести и объяснить с помощью алгоритмов принятия решений.

Ответственность

  • Это относится к роли людей и способности систем ИИ реагировать на решения и выявлять ошибки или невостребованные результаты. По мере роста цепочки ответственности необходимы средства, чтобы связать решения систем ИИ с добросовестным использованием данных и действиями заинтересованных сторон в решении системы.

Прозрачность

  • Это относится к требованию описывать, проверять и воспроизводить механизмы, с помощью которых системы ИИ принимают решения и учатся адаптироваться к своей среде и управлять используемыми данными. Текущие алгоритмы ИИ часто называют черными ящиками — должны быть методы для проверки этих алгоритмов и последующих результатов.

Для обеспечения того, чтобы данные, используемые для обучения алгоритмов и принятия решений, собирались и управлялись справедливо, также требуется прозрачное управление данными. Это делается для уменьшения предубеждений и обеспечения конфиденциальности и безопасности.

Преимущества ответственного ИИ?

Поскольку ИИ оказывает непосредственное влияние на жизнь людей, этический аспект внедрения должен быть самым главным приоритетом.

Вот пять ключевых преимуществ ответственного ИИ (на основе исследования Accenture AI).

Сводит к минимуму непреднамеренную предвзятость

  • Когда вы встраиваете ответственность в свой ИИ, вы гарантируете, что ваши алгоритмы и поддерживающие их данные непредвзяты и представляют всю аудиторию, не выделяя кого-то одного.

Обеспечивает прозрачность ИИ

  • Одним из столпов укрепления доверия является внесение ясности в практику ИИ. Наличие объяснимого ИИ поможет сотрудникам и клиентам лучше понять и воспринять систему.

Открывает новые возможности для сотрудников

  • Предоставьте сотрудникам вашей организации возможность высказывать свои опасения по поводу систем ИИ, которые в конечном итоге улучшат разработки, не препятствуя инновациям.

Защищает конфиденциальность и обеспечивает безопасность данных

  • В то время, когда безопасность данных и конфиденциальность имеют приоритетное значение, ответственные методы искусственного интеллекта гарантируют, что конфиденциальные данные не будут использоваться неэтично.

Дополнительные преимущества для клиентов и рынков

  • Создавая этические методы искусственного интеллекта, вы снижаете фактор риска и создаете системы, которые приносят пользу всем заинтересованным сторонам, взаимодействующим с бизнесом.

Ответственный ИИ — это не просто ставить галочки!

Ответственный ИИ — это гораздо больше, чем просто соблюдение правил путем постановки галочек. Кроме того, это не путь одного пользователя, а процесс, требующий участия всех заинтересованных сторон.

Исследователи и разработчики должны быть осведомлены о своих обязанностях при создании систем искусственного интеллекта, оказывающих непосредственное влияние на общество. Регулирующие органы должны понимать, как регулируется ответственность. Хорошим примером будет определение виновных в случайном наезде беспилотного автомобиля на пешехода.

Это производитель оборудования (производители датчиков и камер)?
Программист? Или регулятор, давший добро на автомобиль?

Все эти и другие вопросы должны учитываться в правилах, которые общество принимает для ответственного использования систем ИИ, и все они требуют участия.

Теперь ожидается, что компании будут самостоятельно регулировать свой ИИ, что влечет за собой разработку и внедрение собственных руководств и методов ответственного ИИ.

Такие компании, как Google, IBM и Microsoft, имеют документированные руководства по процессам. Однако основная проблема заключается в том, что принципы ответственного ИИ могут быть непоследовательными; то, что применяет одна организация, может быть совершенно другим для другой. Меньшим предприятиям не хватило бы даже средств для разработки собственной политики.

Введение универсального руководства для ответственного искусственного интеллекта — это обходной путь. В настоящее время публикация Европейской комиссии «Руководство по этике для надежного ИИ» может служить подходящей отправной точкой. Чтобы приложение ИИ было заслуживающим доверия, необходимо выполнить семь основных требований, как указано в руководстве.

Однако эти правила существуют только в Европе. Хотя технологические гиганты, такие как Google, Facebook и Microsoft, настаивают на дополнительных правилах, в этом отношении достигнут незначительный прогресс. Только время покажет.

Примеры ответственных платформ искусственного интеллекта для изучения

Google | Майкрософт | ИБМ | Европейская комиссия

Ответственный ИИ имеет решающее значение не только для бизнеса, но и для стран и мирового сообщества. Илон обсуждает ИИ и его нормативную базу — вот цитата.

«Обычно я не сторонник регулирования и надзора… Я думаю, что в целом следует ошибаться в сторону минимизации этих вещей… но это тот случай, когда вы представляете очень серьезную опасность для общества», — Илон Маск

Курсы по ответственному ИИ

Есть много онлайн-курсов по искусственному интеллекту, но меньше по его ответственному применению, охватывающих такие темы, как этика и предвзятость в прикладном ИИ.

Я настоятельно рекомендую краткий курс «Этика данных, искусственный интеллект и ответственные инновации», представленный через edX Эдинбургским университетом в Шотландии. Этот промежуточный курс предназначен в первую очередь для специалистов, работающих в смежной области.

Короткие онлайн-курсы (ed.ac.uk)

Ресурсы

Если вам интересно узнать больше о том, что делают компании и организации в отношении этики и ответственности в области искусственного интеллекта, я собрал для вас несколько ресурсов.

Ответственное использование технологий: пример IBM | Всемирный экономический форум (weforum.org)

Экспертная группа высокого уровня по искусственному интеллекту | Формирование цифрового будущего Европы (europa.eu)

Лаборатория технической этики | Университет Нотр-Дам (nd.edu)

CODAIT — Open Source (ibm.com)

Вызов | Звонок в Рим

Этика ИИ | IBM