Как владеть своим решением для обработки данных — этическая сфера

Если вы специалист по данным и часто задумываетесь о том, что значит быть
«ответственным специалистом по данным», добро пожаловать на борт! Я также столкнулся с той же дилеммой несколько лет назад, когда вышел из «Мира Jira» и обратил внимание на многих ветеранов AI/ML, говорящих об этических проблемах работы исследователем данных.

Когда доктор Хокинг предупредил, что «как только люди разработают искусственный интеллект, он начнет развиваться сам по себе и будет переделывать себя со все возрастающей скоростью».

Согласно Самому большому предупреждению Хокинга: Либо это будет лучшее, что с нами когда-либо случалось, либо худшее. Если мы не будем осторожны, это очень хорошо «может быть последним.

Момент пробуждения:

Всю свою жизнь я пытался быть этичным, но не знал, как связать это с решениями ИИ, над которыми я обожаю работать. Это звучит как абстрактная концепция, когда вы слышите, как кто-то говорит «это неэтично». Та же абстрактность характерна для ИИ.

Не существует единого четкого определения этичности, и оно очень субъективно для зрителя. Независимо от того, насколько соблюдает этику решение, которое вы можете предложить, всегда найдется кто-то с другой стороны, который задаст вам вопросы. Сказав это, эзотерическая концепция этики не может избавить вас от ответственности, связанной с работой с передовыми технологиями, такими как ИИ. Разве технические решения не предназначены для облегчения и комфорта жизни людей? Как мы можем гарантировать этичность этих решений?

Принципы ИИ:

Если технология потенциально может стать угрозой для человечества, и есть игроки, которые могут хотеть получить краткосрочную выгоду, а не взвешивать ее влияние на общество, тогда вы обращаетесь к принципам и правилам. Они предназначены для того, чтобы убедиться, что решения ИИ в основном правильные, хотя эти принципы часто меняются.

Подотчетность лежит в основе всех ключевых этических принципов. Давайте посмотрим, как:

  • Интерпретируемость:

Прозрачность в форме «права на объяснение стала убедительно привлекательным средством, поскольку оно интуитивно обещает открыть алгоритмический черный ящик для поощрения, оспаривания, возмещения ущерба и, как мы надеемся, усиления ответственности», — Duke Law and Technology »

Интерпретируемость критически важных систем искусственного интеллекта становится еще более важной — критическая модель означает, что выходные данные оказывают глубокое влияние на жизнь людей.

Что, если я скажу вам, что 28% пациентов из определенной этнической группы не имели доступа к качественному медицинскому обслуживанию в период с 2013 по 2015 год просто из-за расово предвзятого медицинского алгоритма искусственного интеллекта?

Обратитесь к статье ниже для более подробной информации

Теперь давайте перейдем к решению: если бы модель здравоохранения была достаточно прозрачной, чтобы понять, почему та или иная группа находится в неблагоприятном положении, эту проблему можно было бы быстро решить. Этот принцип также тесно связан с принципом справедливости, обсуждаемым ниже.

Если вы можете объяснить результат модели, это не только заставит вас соблюдать этику, но и улучшит вашу работу. В наши дни это обязательный навык, который помогает вам видеть вашу модель насквозь. Осведомленность о фреймворках и наборах инструментов, таких как «AI Fairness 360, помогает анализировать данные и устранять предвзятость на протяжении всего процесса разработки моделей».

Объяснение и интерпретация помогают в отладке модели — попробуйте ответить на следующие вопросы:

  1. Знаю ли я, почему модель вывела определенный класс?
  2. Где моя модель не работает, каковы ее ограничения?
  3. Как поведет себя моя модель, если я изменю определенный ввод на x%/значение?
  4. Как и что нужно изменить во входных данных для выходного класса X вместо класса Y?

Прежде чем углубляться в свои данные, вам необходимо определить масштаб вашего проекта и определение успеха. Наша серия вебинаров по управлению экспериментами поможет вам шаг за шагом создать идеальную стратегию MLOps для вашей команды.

Каковы уязвимые места вашей модели? Для специалистов по данным очень важно знать «слабую» сторону своей модели.

Это постоянная борьба между хорошими и плохими актерами, чтобы понять, когда модель терпит неудачу. Есть те, кто переосмыслил бы структуру модели и внедрил бы дезинформацию или предвзятость.

Примет ли кто-нибудь такое важное решение в вашей жизни, как операция, не задав доктору все волнующие вопросы — вероятность успеха, ответственность, послужной список?

  • Надежность:
  1. Могу ли я положиться на свою модель, устойчива ли она к возможным изменениям данных и способна ли учитывать динамику данных?
  2. Является ли набор данных правильным со всеми необходимыми атрибутами, необходимыми машине для изучения статистических ассоциаций? Если есть какие-либо ограничения в плане доступа к определенным данным, можем ли мы создать прокси-переменную, которая по-прежнему дает сигнал для прогнозирования события?
  • Конфиденциальность данных:
  1. Клиент — король. Вы не можете позволить себе злоупотреблять данными или использовать данные без их согласия.
  2. Если пользователь хочет отозвать свои данные, это не может быть входом в модель.
  • Справедливость:
  1. Ни одна модель ИИ не может различать людей из разных классов, групп, рас, стран и т.д.
  2. Не должно быть различий в доступе к возможностям у разных людей.
  3. Есть три основных способа оценить и измерить коэффициент честности ваших данных:

а)Разное обращение: изменение конфиденциальной функции меняет результат.

б) Несопоставимое влияние: непропорциональное воздействие на разные группы.

c)Несопоставимое ненадлежащее обращение: разная частота ошибок для разных групп конфиденциальных функций.

  • Безопасность:

Ваша ответственность не должна ограничиваться завершением подготовки модели. Принесите свой моральный компас и оцените его влияние на общество. Является ли это непреложной характеристикой и обязательной для всех продуктов ИИ, чтобы они действовали на благо психического и физического благополучия всех людей? Ответ должен быть да.

  • Подотчетность:

Как специалист по данным и центральный компонент структуры ИИ, вы отвечаете за объединение различных принципов. Организации и все люди несут ответственность за свое участие в неэтичном решении (если они в конечном итоге его создают).

Заключительные замечания:

Я настоятельно рекомендую не дожидаться Судного дня и начать осмотреться — задавать эти трудные и неудобные вопросы о влиянии вашей работы. Если это не способствует улучшению жизни людей, тогда поднимите вопрос на рассмотрение комитета по управлению ИИ. AI Fairness 360 — один из таких инструментов, который может

Основная идея заключается в том, что ни одна человеческая жизнь не должна пострадать в результате вашей работы. Выполняйте работу при создании модели и практикуйте этическую науку о данных.

Примечание редактора. Heartbeat — это интернет-издание и сообщество, созданное участниками и посвященное предоставлению лучших образовательных ресурсов для специалистов по науке о данных, машинному обучению и глубокому обучению. Мы стремимся поддерживать и вдохновлять разработчиков и инженеров из всех слоев общества.

Независимая от редакции, Heartbeat спонсируется и публикуется Comet, платформой MLOps, которая позволяет специалистам по данным и командам машинного обучения отслеживать, сравнивать, объяснять и оптимизировать свои эксперименты. Мы платим нашим авторам и не продаем рекламу.

Если вы хотите внести свой вклад, перейдите к нашему призыву к участию. Вы также можете подписаться на получение наших еженедельных информационных бюллетеней (Еженедельник глубокого обучения и Информационный бюллетень Comet), присоединиться к нам в Slack и следить за Comet в Twitter и LinkedIn, чтобы получать ресурсы, события и многое другое, что поможет вам быстрее создавать лучшие модели машинного обучения.