Оказывается, ИИ настолько силен, насколько несовершенен.

Сегодня мы видим, что искусственный интеллект обладает невероятным потенциалом навсегда изменить мир. Кажется, это очень мощный инструмент, но кое-что в ИИ не очень привлекательно: Предвзятость.

Мы видели ряд случаев, когда кажется, что инструмент машинного обучения или алгоритм искусственного интеллекта склонен к определенной группе людей, а иногда и против нее. Он ведет себя так, как будто у него есть предвзятые представления, которые формируются в процессе обучения на данных.

Но когда ИИ начинает давать сбои, мы обязаны помочь и исправить это, потому что ИИ - мощный инструмент. И с большой силой приходит большая ответственность

Мы не можем позволить ИИ стать молчаливым сторонником бессознательной предвзятости и предубеждения. И это потому, что мы думали, что ИИ устранит всякую предвзятость и дискриминацию!

Разве это не иронично?

«Предубеждение - это приобретенная черта. Вы не рождаетесь с предубеждениями, вас этому учат ».

А кто преподает ИИ? Данные. Откровенно говоря, предвзятость данных ведет к предвзятости ИИ. Алгоритм ИИ будет предвзятым, если данные, на которых он получает и обучается, предвзяты. Если данные, на которых мы его обучаем, разнообразны, то несомненно, что ИИ будет свободен от предвзятости, предубеждений и дискриминации.

Таким образом, уменьшение предвзятости в данных становится задачей первостепенной важности. Снижение предвзятости в ИИ предполагает его обнаружение и исправление.

Первый и наиболее эффективный способ уменьшить предвзятость - это снабдить алгоритм разнообразным набором данных. Обращаясь к первопричине, мы должны признать, что люди были предвзяты. Мы приняли ошибочные решения из-за наших предубеждений и предубеждений.

И если использовать эти данные, алгоритм ИИ может показать свою склонность к предвзятости.

Тогда ИИ просто усилит человеческие предубеждения, ведущие к неправильным решениям.

Отсутствие разнообразия в наборе данных приведет к неверным решениям и множеству ошибок. Это усилит предвзятость в процессе принятия решений. Мы должны придавать исключительное значение тому, чтобы алгоритм не имитировал и не усиливал человеческую предвзятость.

Второе и очень логичное решение - вмешательство человека. Мы должны признать, что ИИ настолько же эффективен, насколько несовершенен. Думающая машина никогда не сможет полностью заменить человеческий мозг. Принятие решения включает в себя множество задач, таких как рассмотрение всех плюсов и минусов, рассмотрение будущих последствий и, конечно же, попытка быть максимально непредвзятой. Делая вывод, особенно по чему-то критическому и сомнительному, неразумно позволять алгоритму делать выбор. Лучший способ уменьшить такую ​​предвзятость и уменьшить отклонение от ожидаемого результата - это привнести человеческое взаимодействие.

Человеческое посредничество - одно из наиболее практичных решений, по крайней мере, на данный момент. Люди должны иметь возможность вмешаться и перезаписать неверное решение, принятое машиной или алгоритмом. Намерение состоит в том, чтобы использовать скорость машины наряду с усмотрением человечества.

Верно ли решение, принятое алгоритмом, можно измерить степенью уверенности, которая сопровождает каждое принятое им решение. Когда степень уверенности машины в том или ином решении низка, вмешательство человека может вступить в игру.

Затем требуется человеческое усилие, чтобы проверить, является ли принятое решение рациональным, обоснованным и надежным. В противном случае мы сможем просто перезаписать решение.

Human-In-The-Loop (HITL) - это концепция, целью которой является исправление неточностей в решениях, принимаемых алгоритмом с помощью человеческого интеллекта. Эта комбинация очень мощная и грозная. Когда ошибки обходятся дорого и когда объем данных очень мал, полезен метод Human-in-the-Loop.

третий способ уменьшить предвзятость в ИИ - увеличить разнообразие в сообществе разработчиков. Так или иначе, продукт действительно отражает своего разработчика.

Это означает, что все подсознательные предубеждения и предрассудки разработчика могут быть увеличены и отображены в алгоритме. Никто не создает преднамеренно предвзятые алгоритмы. Никому не нравятся дискриминационные алгоритмы.

Но дело в том, что все это медленно закрадывается. Чтобы избежать этого, можно использовать разнообразное сообщество разработчиков.

Идеальный вариант включал бы много разных типов людей, принадлежащих к разным группам. Разработчики должны быть любого возраста, пола, вероисповедания и этнической принадлежности.

Это будет означать, что продукт, разработанный таким образом, был создан после рассмотрения очень большого количества точек зрения. И это идеальный продукт AI!

Как известно, разные команды умнее. Но теперь мы знаем, что разные команды создают умные продукты искусственного интеллекта, которые открыты для всех и лишены каких-либо предубеждений.

Еще один способ обеспечить справедливость ИИ - это тщательно протестировать алгоритмы. Обязательно задавать всевозможные вопросы и проверять их результаты. Алгоритм ИИ и статистические методы должны работать с реальными наборами данных и реальными вопросами. Очень важно сделать так, чтобы результаты были непредвзятыми. А для этого результаты должны быть подтверждены и подтверждены.

Уже есть несколько доступных решений, которые можно использовать для этого. IBM Инструмент AI Fairness 360, Google Что-если и FairML - вот некоторые из них. Такие инструменты проверяют справедливость и степень дискриминации в алгоритме.

В заключение сделаем очень интересное наблюдение:

«В вопросе предвзятости есть луч света. Например, предположим, что у вас есть алгоритм, который пытается предсказать, кто получит повышение. И предположим, что была сеть супермаркетов, которая, по статистике, не продвигала женщин так часто, как мужчин. Возможно, проще исправить алгоритм, чем исправить умы 10 000 менеджеров магазинов ».

- Ричард Сохер, главный научный сотрудник Salesforce [1]

Верно, правда? Пора извлечь из этого выгоду! :)

Ссылки и дополнительная литература: