Распознавание лиц и системные ошибки ИИ: первые шаги к более осознанному будущему?

автор: Рафаэлла Агемо

Искажение когнитивной предвзятости ИИ

Накануне публикации руководящих принципов Европейской комиссии по использованию систем искусственного интеллекта, особенно в области видеонаблюдения, где отправной точкой является адекватная и первичная защита безопасности и основных прав людей, серьезные Эпизод, произошедший в американском штате Мичиган, представляется весьма значимым.

Инициатива по судебным разбирательствам по гражданским правам (CRLI) Школы права Мичиганского университета, Американский союз гражданских свобод (ACLU) и ACLU штата Мичиган подали федеральный иск от имени жителя Фармингтон-Хиллз Роберта Уильямса!

«Я пришел с работы домой и был арестован на подъездной дорожке на глазах у моей жены и дочерей, которые смотрели на меня в слезах, потому что компьютер сделал ошибку», - сказал г-н Уильямс. «Этого никогда не должно было случиться, и я хочу убедиться, что этот болезненный опыт никогда не случится ни с кем другим».

Но давайте посмотрим на предысторию: в 2018 году магазин часов в Детройте подвергся краже черным вором, пойманным на камеру видеонаблюдения с низким разрешением, в тускло освещенном помещении, где лицо вора был виден лишь частично, так как не располагался спереди, по сравнению с объективом камеры!

Однако полицейское управление Детройта с помощью этого неподвижного изображения и сочетания его с системами распознавания лиц пришло к выводу, что виновник этой кражи - Роберт Уильямс. Таким образом, г-на Уильямса продержали 30 часов в тюрьме Детройта в совершенно не комфортных условиях.

По словам Джереми Шура, студенческого поверенного из CRLI, который представляет г-на Уильямса, «Города по всей стране запретили полиции использовать технологию распознавания лиц по одной причине: эта технология является предвзятой на расовой почве, ошибочной и легко приводит к ложным аресты невинных людей, как и наш клиент ».

Согласно жалобе, опыт г-на Уильямса был первым случаем неправомерного ареста из-за технологии распознавания лиц, который стал известен в Соединенных Штатах.

Мэр Майк Дагган, бывший прокурор, сказал, что он «очень зол» на то, как обошлись с Уильямсом. Он обвинил в «дрянной» работе полиции и прокуратуры, но сказал, что технологии могут быть полезны при правильном обращении.

В вышеупомянутом иске утверждалось, что права г-на Уильямса по Четвертой поправке были нарушены, а его незаконный арест был нарушением Закона о гражданских правах Эллиотта-Ларсена штата Мичиган. Обвинение требовало возмещения ущерба и изменения действующей политики, в частности, чтобы остановить злоупотребление технологией распознавания лиц.

Отягчающие обстоятельства дела многочисленны: арест был произведен на основании снимка экрана, снятого с видеозаписи наблюдения, и сравнения с устаревшей фотографией водительских прав Уильямса; этот кадр был показан сотруднику службы безопасности магазина, который даже не присутствовал во время преступления, а просто указал на Уильямса среди ряда фотографий шести субъектов; наконец, в жалобе не было даже видео наблюдения, поскольку, похоже, обвинение было основано ТОЛЬКО на результатах программы распознавания лиц!

Предстоящее европейское регулирование

Это явный пример того, что Гилман назвал «предвзятостью автоматизации» (о чем я говорил на недавнем вебинаре), согласно которому большинство судей склонны рассматривать алгоритмический результат более надежный, чем эмпирический.

Этот эпизод, безусловно, полезен для Брюсселя, чтобы лучше определить регуляторный периметр, в пределах которого может перемещаться использование искусственного интеллекта, что должно дать положительный импульс для экономического и социального развития страны, но при этом избегать эпизодов, подобных этому. Роберта Уильямса, которые подрывают не только безопасность граждан, но и необходимое «доверие», которое должно быть вызвано «общим чувством», для реализации эффективного, заслуживающего доверия ИИ.

Вот почему в предварительном представлении этой нормативной базы дан отпечаток «ориентированность на человека» и проводится базовое различие между системами с низким и высоким уровнем риска, к которому, безусловно, относится широко обсуждаемый вопрос о допустимости распознавания лиц в общественных местах, разрешенный, по-видимому, только в определенных датах и ​​точных географических и временных условиях в интересах общественной безопасности.

Ответственный ML в Twitter

Таким образом, инициатива, объявленная несколько дней назад Twitter и названная «Ответственное машинное обучение», кажется достойной похвалы и справедливой, которая направлена ​​на предотвращение и смягчение негативного воздействия его алгоритмов с этой целью: «Сегодня мы хотим больше рассказать о работе, которую мы проводим. сделали для улучшения наших алгоритмов машинного обучения в Твиттере », процесс, который проходит через следующие основные направления:

- Ответственность за алгоритмические решения;

- Справедливость и точность результатов;

- Прозрачность решений и того, как они были приняты;

- Обеспечение выбора и алгоритмических возможностей.

Группы экспертов, обладающие обширным опытом, займутся следующими видами анализа:

- Анализ гендерных и расовых предубеждений в алгоритме обрезки изображений (значимость)

- оценка справедливости рекомендаций по временной последовательности по расовым подгруппам

- анализ рекомендованного содержания по разным политическим идеологиям в семи странах.

Вот ссылка на твит: https://blog.twitter.com/en_us/topics/company/2021/introduction-responsible-machine-learning-initiative.html.

Такое отношение со стороны Big Tech к признанию ошибочности алгоритмов и того, как они могут поразительным образом повлиять на уязвимые меньшинства, представляет собой лучшее будущее, которое мы можем построить!

Все права защищены

Рафаэлла Агемо, юрист