Семинарский колледж может быть странным местом.

Это похоже на странную смесь бункера судного дня, университетского адвокатского сословия и католического Хогвартса. Персонажи, которых вы встретите, кажутся творениями вдохновленного 80-ми ситкома 90-х — с настолько экстремальными личностями, что вы будете поражены, что такие люди вообще существуют.

Но это было не для меня.

Если я и заметил что-то, связанное с уходом из семинарии, так это значительное увеличение свободного времени в воскресенье утром, когда я посещал мессу. Я также освободился по вечерам в среду, когда работал волонтером в Церкви, а выходные проводил с друзьями из общины. Отказ от религиозной традиции был больше, чем просто изменение моей религиозной идентичности; это был выход из активного сообщества.

Не поймите меня неправильно, существует миллион и один способ организовать группу людей, но религиозные институты, кажется, делают это на удивление хорошо. Думаю об этом. Они предоставляют вам определенное место и время, где вы можете собраться вместе, чтобы обсудить свои ценности, опыт и жизненные устремления. Вы получаете возможность общаться с людьми, у которых схожее видение мира и вашей индивидуальной роли в нем. Затем, если они действительно хороши, они на самом деле мотивируют вас пойти и что-то с этим сделать.

Самый частый вопрос, который задают при выезде? Как можно быть хорошим без путеводной звезды, такой как Бог?

Это подтолкнуло меня на путь самопознания и исследования. Я считал себя хорошим по своей сути, но что сделало меня таким?

Урок остался со мной — этика (простите за каламбур) не высечена на камне. Этика — это живой элемент, который сознательно или нет влияет на то, как мы живем на работе или дома.

Психологические и социокультурные элементы играют роль в том, как мы воспринимаем этику. Послушание, конформизм, моральное отстранение, когнитивный диссонанс и моральная амнезия — все это изменило наше поведение.

Хотя мы считаем себя хорошими по своей природе, в определенных обстоятельствах мы склонны вести себя плохо.

Выходит, что Этика — вещь фундаментально сложная и человеческая.

Какое это имеет отношение к дизайну, технологиям или ботам?

Речь идет о ясности и, в частности, прозрачности — сделанных дизайнерских решений, собранных данных, используемых алгоритмов — все это выбор, сделанный кем-то на основании этического решения.

Кажется, что в рабочей силе есть чувство морального разобщения. Для тех, кто не знает, этот термин из социальной психологии описывает процесс убеждения себя в том, что этические стандарты неприменимы в данном контексте.

Таким образом, моральное отстранение вызывает когнитивное переосмысление или переосмысление поведения как морально приемлемого. Не обращая внимания на беспокойство, которое это создает для психики человека или даже для организационной культуры, это имеет серьезные последствия для того, как технологические и бизнес-лидеры могут подойти к тому, чтобы сделать свои технологии более этичными.

Благодаря новым технологиям, таким как машинное обучение, разработчики теперь могут достичь гораздо большего, чем когда-либо прежде. Но эту новую силу можно использовать либо для повышения нашей человечности, либо для того, чтобы вести нас к антиутопическому будущему.

Технология срочно нуждается в этике

Текущие процессы этики и оценки рисков, связанных с использованием машинного обучения — или, как его обычно называют, искусственного интеллекта (ИИ) — все еще относительно незрелы, и срочность кризиса подчеркивает их ограничения.

Большая часть работы в области этики ИИ в последние годы была сосредоточена на разработке принципов высокого уровня. Тем не менее, эти принципы ничего не говорят о том, что делать, когда принципы вступают в противоречие друг с другом. Например, принципы не говорят нам, как сбалансировать потенциал ИИ для спасения жизней (принцип «благотворительности») с другими важными ценностями, такими как конфиденциальность или справедливость. Одним из распространенных способов преодоления такой напряженности является взаимодействие с различными группами заинтересованных сторон, но это может быть трудно осуществить с достаточной скоростью во время кризиса.

Эксперты в области этики и оценки рисков должны с самого начала привлекаться к командам, разрабатывающим решения на основе ИИ, и инженерам и разработчикам нужны более четкие рекомендации для продумывания этих вопросов. Подход, основанный на этических принципах, также должен быть дополнен более обширной работой по предвидению, выходящей за рамки более очевидных и неотложных этических проблем и учитывающей широкий спектр долгосрочных и широкомасштабных системных воздействий.

Бизнес против этики

О тесной связи между бизнесом и наукой свидетельствует тот факт, что отраслевые партнеры спонсируют все крупные конференции по искусственному интеллекту.

Наблюдается значительный рост числа активных стартапов в области искусственного интеллекта, каждый из которых поддерживается огромными суммами ежегодного финансирования от фирм венчурного капитала. Ежегодно регистрируются десятки тысяч патентов, связанных с ИИ. Различные отрасли внедряют приложения ИИ в самые разные области: от производства, управления цепочками поставок и разработки услуг до маркетинга и оценки рисков. В целом мировой рынок ИИ составляет более 7 миллиардов долларов.

Из-за широко распространенных непредвиденных последствий и внешних факторов эта новая технология может вызвать существенные социальные последствия. Дело не только в потере рабочих мест из-за внедрения ИИ.

Легче приносить вред или создавать вещи, которые раздражают людей, чем создавать действительно полезные вещи.

Подумайте о препятствовании инновациям и прозрачности из-за использования коммерческой тайны для маскировки вредных или ошибочных функций ИИ. Организации, проводящие неконтролируемые формы экспериментов с искусственным интеллектом в обществе без информированного согласия или надзора. Распространение несправедливого и предвзятого использования алгоритмов. Проблемы конфиденциальности и безопасности от утечек данных. Или даже просто предоставлять небезопасные продукты ИИ, поскольку они торопятся интегрировать и выводить на рынок незрелые приложения ИИ.

Кроме того, криминальные или черные хакеры могут использовать ИИ для адаптации кибератак, кражи информации, атак на ИТ-инфраструктуру, фальсификации выборов, распространения дезинформации (например, с помощью дипфейков), использования технологий синтеза голоса для мошенничества или социальной инженерии или раскрытия личных качеств, которые на самом деле секретным или частным с помощью приложений машинного обучения.

Бесчисленное количество компаний стремятся монетизировать ИИ в самых разных приложениях. Это стремление к прибыльному использованию систем машинного обучения в первую очередь основано не на этике, основанной на ценностях или принципах, а, очевидно, на экономической логике.

Инженеры и разработчики не получают систематического образования по этическим вопросам и не уполномочены, например, организационными структурами, поднимать этические вопросы. В бизнес-контексте скорость решает все, и игнорирование этических соображений эквивалентно пути наименьшего сопротивления. Таким образом, практика разработки, внедрения и использования приложений ИИ очень часто имеет мало общего с ценностями и принципами, постулируемыми этикой.

В этике нет механизмов принуждения, выходящих за рамки добровольного и ни к чему не обязывающего сотрудничества между специалистами по этике и людьми, работающими в исследованиях и промышленности. Итак, исследования и разработки в области ИИ происходят в «закрытых отраслевых условиях». За этими закрытыми дверями согласие пользователя, конфиденциальность и прозрачность часто упускаются из виду в пользу беспрепятственной функциональности, которая поддерживает бизнес-модели, ориентированные на прибыль.

Однако не все так плохо. Значительный прогресс был достигнут в области конфиденциальности и справедливости. Например, было разработано множество безопасных для конфиденциальности методов использования наборов данных и алгоритмов обучения с использованием методов, в которых «зрение» систем ИИ «затемняется» с помощью криптографии, дифференциальной или стохастической конфиденциальности.

Тем не менее, это противоречит наблюдению о том, что ИИ добился такого огромного прогресса в течение нескольких лет именно из-за большого количества доступных (персональных) данных. Эти данные собираются нарушающими конфиденциальность платформами социальных сетей, приложениями для смартфонов, а также устройствами Интернета вещей с их бесчисленными датчиками.

Этические стандарты не соблюдаются

Этические цели в значительной степени недостижимы. Нужно только подумать об аспекте гендерного разнообразия в ИТ. Несмотря на то, что этические принципы явно требуют его улучшения, положение дел таково, что в среднем 80% профессоров в ведущих университетах мира, таких как Стэнфорд, Оксфорд, Беркли или ETH, составляют мужчины, а мужчины составляют более 70% абитуриентов. для рабочих мест ИИ в США

Как неоднократно требовалось в различных этических руководствах, к людям следует относиться не просто как к субъектам данных, а как к личностям. Фактически, бесчисленные примеры показывают, что компьютерные решения, независимо от их подверженности ошибкам, приписываются сильному авторитету, что приводит к игнорированию индивидуальных обстоятельств и судеб.

Многие компании стремятся к противоположности человеческой автономии, применяя все более тонкие приемы манипулирования поведением пользователей с помощью микротаргетинга, подталкивания, UX-дизайна и тому подобного.

Другой пример — сплоченность. Многие крупные скандалы последних лет были бы немыслимы без использования ИИ. От эффектов эхо-камеры до использования пропагандистских ботов или распространения фейковых новостей.

В настоящее время этика ИИ во многих случаях терпит неудачу. В этике отсутствует механизм подкрепления. Отклонения от различных этических кодексов не имеют последствий. А в тех случаях, когда этика интегрирована в институты, она в основном служит маркетинговой стратегией. Кроме того, эмпирические эксперименты показывают, что рекомендации по этике чтения не оказывают существенного влияния на принятие решений разработчиками программного обеспечения. На практике этика ИИ часто рассматривается как второстепенная, излишняя или своего рода «дополнение» к техническим проблемам, как ни к чему не обязывающие рамки, которые навязываются институтами «вне» технического сообщества.

Могут ли технологии и искусственный интеллект сделать нас лучше?

Это вопрос, который я регулярно задаю себе — и, надеюсь, вы тоже.

Требуется более пристальное внимание к техническим деталям различных методов и технологий в области ИИ и машинного обучения. В конечном итоге это должно помочь сократить разрыв между этическими и техническими дискурсами. Необходимо строить осязаемые мосты между абстрактными ценностями, техническими реализациями и «человечностью», пока эти мосты можно построить разумно.

Можно ли разработать инструменты для повышения независимости, конфиденциальности и мощности, а не для ущерба им? Можем ли мы создать инструменты, которые вернут выбор и контроль сотрудникам, заинтересованным сторонам и потребителям?

Представьте, как могли бы выглядеть эти технологии, если бы мы сосредоточились на повышении когнитивных, социальных навыков и навыков выживания людей, предоставляя им возможность не только думать самостоятельно, но и предпринимать осознанные действия и эффективно взаимодействовать с другими.

Мы понимаем, что когда группы людей собираются вместе для решения проблемы, они становятся больше, чем сумма их частей. Это не новая концепция. Аристотель заметил, что многие ничем не примечательные люди часто делают более точные коллективные суждения, чем великие личности. Эта «мудрость толпы» до сих пор используется от командных семинаров до призывов в социальных сетях к краудсорсингу «коллективного разума».

Мы знаем, что будущее работы связано с сотрудничеством и решением проблем. Достижения в области искусственного интеллекта могут сделать использование коллективного разума и поиск решений намного более доступными. Это может даже сделать нас более эффективными на работе и лучше решать социальные проблемы.

Можем ли мы проложить пути для людей во всем мире, чтобы прийти к общему пониманию и согласию — объединить усилия и способствовать инновациям подходов к решению коварных проблем?

А как насчет инструментов, которые помогают нам быть более инклюзивными? Внимательный? Эмпатический?

У Австралии есть прекрасная возможность быть не только ведущим разработчиком технологий и внедрить системы и технологии искусственного интеллекта, управляемого данными, но и лидировать в этическом плане.

В Австралии созданы и признаны во всем мире сильные стороны в некоторых ключевых областях возможностей, основанных на данных, которые являются ключевыми для ИИ, включая совместное использование или федерацию данных, надежные системы, машинное обучение, анализ изображений, обработку естественного языка и автоматизацию.

При поддержке Национальной программы инноваций и науки (NISA) такие инициативы, как Платформы для открытых данных (PFOD), позволяют правительственным учреждениям Австралии работать с данными CSIRO61 для тестирования и проверки методов обеспечения надежного доступа к ценным государственным наборам данных, в то же время сохранение конфиденциальности и целостности данных.

Чтобы Австралия в полной мере воспользовалась возможностями, предоставляемыми ИИ, управляемым данными, правительствам, предприятиям и сообществу необходимо будет повысить уровень осведомленности, принятия и принятия использования ИИ, а для этого потребуется более глубокий уровень доверия к целостность систем на основе ИИ.

У нас есть выбор: создавать инклюзивные, децентрализованные, интеллектуальные инструменты, помогающие людям и активно выполняющие социальные и этические обязанности, или создавать инструменты, отражающие антиутопические последствия.

Достаточно ли сосредоточиться на этике? Возможно, нам нужно разработать оценочную карту «выстрела на луну», чтобы гарантировать, что ИИ и другие технологии направлены на «человечность» и общее благо.

Итак, чему я научился?

Если мой моральный компас представляет мою этику, а алгоритм представляет католическую церковь, я вижу, что пошло не так. Алгоритм церкви постоянно пытался протолкнуть набор значений, который был разработан тысячу лет назад и вырос на основе истории поиска бесчисленного множества других.

Предполагалось, что люди не были хорошими по своей природе и нуждались в постоянном исправлении. Он не обеспечивал прозрачности цели и просил меня доверять ему, когда доверие еще не было заработано.

Вместо этого я решил создать процесс, в котором мои решения и выбор основывались на наборе четко определенных этических позиций. Я тщательно изучил и принял эти принципы как мантру своей жизни, и да, многие из них произошли из моего религиозного обучения.

Однако ясно, что они прозрачны и управляются людьми, которым я доверяю больше всего. Алгоритмы ИИ, теперь ваша очередь.

Первоначально Опубликовано в LinkedIn 30 октября 2020 г.