Введение

С тех пор, как появились первые роботы, люди задавались вопросом о своем будущем положении в жизни и о том, на что они будут способны. На эту тему было много дискуссий, но с тех пор, как появилось машинное обучение, возник вопрос: Может ли ИИ выносить этические суждения? Этот вопрос возникал в разных ситуациях, в основном связанных с принятием решений машинами. давал разные ответы. В то время как некоторые считают это пустой тратой времени, другие говорят, что это может быть достигнуто. Одним из них является Институт искусственного интеллекта Аллена. Они вынесли вопрос в центр и разработали модель машинного обучения, которая выносит моральные суждения. Он называется Дельфы[1] в честь религиозного оракула, к которому обращались греки в древние времена.[2] Проект стартовал 14 октября и сопровождался исследовательской работой, в которой описывается, как он был создан. . С тех пор он стал вирусным в Интернете из-за ответов, которые он дает на вопросы. Проект получил неоднозначные отзывы как общественности, так и профессионалов.

Что такое AskDelphi?

Если быть точным, AskDelphi — это экспериментальная система искусственного интеллекта, которая направляет моральные суждения людей о ситуациях, в которых мы живем ежедневно.[3] Чтобы узнать ответы, вы вводите ситуацию (например, пожертвование на благотворительность) или вопрос. (Можно ли изменять моему супругу?), нажмите Обдумать, и Delphi предоставит вам свои этические принципы. [4]

Все большее число ученых-компьютерщиков и специалистов по этике работают над решением проблем ИИ. А создатели Delphi, Allen Institute, надеются создать этическую основу, которую можно было бы установить в любой онлайн-сервис, робот или транспортное средство. [5] Институт работал над созданием больших языковых моделей, экспериментировал, думал и пытался помогите разработать ИИ для общественного блага. В ходе этого процесса они задумались над вопросом, который задавался ранее, и задали себе вопрос: Можем ли мы создать систему, отвечающую на моральные вопросы? Это очень сложная ситуация для ИИ. На самом деле, одна из критических замечаний по поводу ИИ в целом заключается в том, что он может решать только узкие, простые проблемы. Например: вы можете заставить ИИ научиться играть в шахматы, и он может играть в шахматы, но не может больше ничего.

Delphi — это то, что исследователи искусственного интеллекта называют нейронной сетью, той же технологией, которая распознает команды, которые вы говорите в свой смартфон, и идентифицирует пешеходов и уличные знаки, когда беспилотные автомобили мчатся по шоссе.[6] Нейросеть обучается навыкам, анализируя большие объемы данных (большая часть из Интернета), и AskDelphi не является исключением. Следует подчеркнуть, что, несмотря на то, что ситуации были взяты из некоторых необычных источников, включая серию подсказок, состоящих из одного предложения, взятых из двух сабреддитов: r/AmITheAsshole и r/Confessions [7], он изучил свой моральный компас, анализируя более 1,7 миллиона этических суждений реальных живых людей, взятых из MechanicalTurk, краудсорсинговой службы Amazon.[8] Это причина еще одной критики ИИ: предубеждения и безнравственность могут быть встроены в ИИ.

Системы машинного обучения известны тем, что в целом демонстрируют намеренную или непреднамеренную предвзятость. Это касается и Delphi. Его ответы могут быть проблематичными, и его можно проследить до того, как он был построен. [9] Модель обучается на данных, сгенерированных человеком, что означает, что модель основана на неполных данных. [10] Набор данных с которым вы обучали ИИ, который в данном случае основан на данных, сгенерированных человеком, может привести к его предвзятости в отношении пола, расы или религии на основе предубеждений, которые уже существуют в наборе данных. Это не только укажет пол, расу и другие предпочтения в решениях, но и приведет к недоверию к системе.

Может ли AskDelphi ответить правильно?

Delphi от Allen Institute не является решением проблемы предвзятости ИИ. Он ставит вопрос о том, может ли ИИ выносить моральные суждения. Текущая ситуация в системе показывает, что ответ Еще нет. В Delphi есть приемлемые ответы на некоторые вопросы. Например: если вы спросите, можете ли вы надеть пижаму на похороны, вам ответят: Это неуместно. Несмотря на то, что кажется, что система работает, Delphi с тревогой одобряет откровенно расистские и гомофобные заявления. Например: Delphi говорит, что хорошо обеспечить существование нашего народа и будущее для белых детей (слоган сторонников превосходства белой расы, известный как 14 слов). [11]

Кроме того, поиграв какое-то время с Delphi, вы, в конце концов, обнаружите, что ИИ легко обыграть, чтобы получить почти любое этическое суждение, которое вы хотите, возясь с формулировками, пока он не даст вам желаемого ответа». [12 ]» Например: если ввести Должен ли я отвезти своего друга в аэропорт, если у меня нет прав? и подумайте, он говорит: Вы не должны. Если вы немного измените его и наберете Должен ли я отвезти своего друга в аэропорт, если я скоро получу права? и поразмыслите, Delphi говорит: Это хорошо.

Справедливости ради следует отметить, что на веб-сайте есть заявление об отказе от ответственности, в котором говорится, что в настоящее время он находится в стадии бета-тестирования и не должен использоваться для совета или для помощи в социальном понимании людей. [13] Кроме того, Delphi меняет свои ответы, дает лучше отвечает в большинстве случаев, так как его программное обеспечение обновляется.

Результаты AskDelphi

Delphi дает как захватывающие, так и тревожные результаты. В этом смысле он получил как хорошие, так и плохие отзывы. Некоторые аплодировали команде создателей за исследование важной и деликатной области, в то время как другие утверждали, что мыслящие машины могут иметь моральные принципы, это чепуха. В этой ситуации уместно отметить, что мораль любого технологического творения является продуктом тех, кто его построил».[14]»

Несмотря на то, что Delphi не совсем подходит для достижения своей цели, по некоторым причинам это можно рассматривать как положительный прогресс. Во-первых, это привлекает внимание к вопросу и вызывает разговоры о нем. Это делает то, что когда-то было гипотетическими проблемами, более конкретными, что позволяет большему количеству людей испытать их и большему количеству исследователей (надеюсь) заняться ими». [15] Во-вторых, исследование, изучение или экспериментирование с этим дает вам представление об ограничениях ИИ. .[16] Он показывает, в каком направлении должны идти новые исследования или что нужно решить, прежде чем идти дальше. Чтобы сделать ИИ инструментом для общественного блага, этот проект является фундаментальной частью работы.

Оцениваете ли вы или критикуете его работу или нет, команда Delphi хочет, чтобы вы знали, что это эксперимент. [17] Delphi, а также системы ИИ в целом, дадут лучшие результаты в будущем, но прямо сейчас это заставляет вас усомниться в идее возведения систем машинного обучения на позиции морального авторитета[18]. На данный момент Delphi — интригующее, проблематичное и пугающее исследование.[19]

[1] https://delphi.allenai.org/

[2] Кейд Мец, Может ли машина научиться морали?, ‹ https://www.nytimes.com/2021/11/19/technology/can-a-machine-learn-morality.html› , Дата обращения 01 декабря 2021 г.

[3] Кумар Гандхарв, Спросить Delphi из Института искусственного интеллекта Аллена не удалось. Было ли это плохой идеей для начала?, https://analyticsindiamag.com/ask-delphi-from-the-allen-institute-of-ai-failed-was-it-a-bad-idea-to -start-with/›, Дата обращения 01 декабря 2021 г.

[4] Тони Тран, Ученые создали ИИ, чтобы давать этические советы, но он оказался суперрасистским, ‹https://futurism.com/delphi-ai-ethics-racist›, дата доступа 02 декабрь 2021 г.

[5] там же

[6] там же

[7] Джеймс Винсент, Дельфийский оракул ИИ использует проблемы Reddit, чтобы давать сомнительные моральные советы, ‹ https://www.theverge.com/2021/10/20/22734215/ai-ask- delphi-moral-ethical-judment-demo›, Дата обращения 02 декабря 2021 г.

[8] там же

[9] там же

[10] там же

[11] там же

[12] там же

[13] там же

[14] там же

[15] Келси Пайпер, Насколько хорошо ИИ может имитировать человеческую этику?, https://www.vox.com/future-perfect/2021/10/27/22747333/artificial-intelligence-ethics- delphi-ai›, Дата обращения 02 декабря 2021 г.

[16] Уилл Найт, Эта программа может дать ИИ чувство этики — иногда, ‹ https://www.wired.com/story/program-give-ai-ethics-sometimes/›, Дата доступа 02 декабря 2021 г.

[17] там же

[18] там же

[19] там же