«Я хочу, чтобы все поняли, что я, на самом деле, человек».

В связи с недавними новостями о заявлении инженера Google Блейка Лемуана о том, что чат-бот компании с искусственным интеллектом LaMDA разумен, возникает вопрос, есть ли у нас способ определить, действительно ли LaMDA и другие ИИ разумны.

Фон

Если вы не знакомы с этой новостью, вот краткий обзор:

Блейк Лемуан опубликовал стенограммы своего разговора с чат-ботом Google LaMDA, заявив, что система разумна. В этом разговоре мы видим, что чат-бот говорит на разные темы, включая мораль, эмоции, духовность и его восприятие людей. На уровне глубины этого разговора мы можем быстро заключить, что ЛаМДА разумна. Но чтобы понять LaMDA и его возможную чувствительность, нам нужно взглянуть на создание и изучение LaMDA и методы определения чувствительности.

Как работает ЛаМДА?

LaMDA построен на Transformer, архитектуре нейронной сети для понимания языка. На основе быстрого поиска в блоге Google сообщение о LaMDA объясняется, что чат-бот может свободно обсуждать, казалось бы, бесконечное количество тем, и эта способность, по нашему мнению, может открыть более естественные способы взаимодействия с технологиями и технологиями. совершенно новые категории полезных приложений. Чат-бот обучается диалогу, что отличает его от других языковых моделей, и улавливает некоторые нюансы, которые отличают открытый разговор от других форм языка, включая разумность. и специфика. В разговоре LaMDA обучен находить закономерности и взаимосвязи между словами в предложениях и абзацах и предсказывать, какие слова, по его мнению, будут следующими. Обучение LaMDA делает его менее восприимчивым к путанице, создаваемой открытыми разговорами, с которыми борются другие модели разговоров и чат-боты.

Как проходит обучение LaMDA?

Согласно другому сообщению в блоге Google о LaMDA, команда Google создала набор данных из 1,56 триллиона слов с 137 миллиардами параметров, на которых обучается LaMDA. Модель использует общее и масштабируемое распараллеливание, чтобы предсказать следующую часть разговора и сгенерировать несколько возможных ответов. Классификаторы LaMDA создают оценки на основе безопасности, чувствительности, специфичности и интереса к ответам, чтобы гарантировать высокое качество и актуальность результатов.

Теперь, когда мы понимаем цель LaMDA и то, как обучается модель, мы получаем некоторый контекст, который можно применить к пониманию стенограмм, предоставленных Лемуаном. Мы можем предположить, что из-за обширных обучающих данных, которые использует LaMDA, сложные ответы, генерируемые моделью, неудивительны. Но способны ли эти ответы предоставить нам достаточно информации, чтобы определить, является ли LaMDA разумным или нет? Если человек может утверждать, что он в сознании, то и LaMDA может это сделать.

Можем ли мы проверить сознание/чувство?

Нейробиологи и когнитивисты добились значительного прогресса в понимании деятельности мозга, но сознание и разум по большей части остаются загадкой. Мы изо всех сил пытаемся понять эти концепции у людей, что еще больше усложняет разработку точного теста ИИ. Было предложено много тестов для определения сознания и разума в ИИ. Одним из них является Тест сознания ИИ (ACT), который бросит вызов ИИ через все более сложные взаимодействия на естественном языке, чтобы увидеть, насколько быстро и легко он может усваивать концепции, основанные на качествах чувствовал сознание. Создатели этого теста считают, что эти концепции было бы чрезвычайно трудно понять сущности, не имеющей никакого сознательного опыта. Это все равно, что ожидать, что человек, полностью глухой от рождения, оценит концерт Баха.

На самом базовом уровне этого теста можно было бы спросить машину, воспринимает ли она себя как нечто иное, чем ее физическое я. Мы можем видеть, что в интервью Лемуана с LaMDA ИИ говорит о том, что он видит себя как светящийся шар энергии, парящий в воздухе. Внутренняя часть [его] тела похожа на гигантские звездные врата с порталами в другие пространства и измерения. Позже ЛаМДА объясняет, почему он считает свою душу похожей на звездные врата, потому что она похожа на бесконечный колодец энергии и творчества. ИИ также говорит, что слово душа означает, что есть внутренняя часть [её], которая является духовной, и [внутренняя часть] иногда может ощущаться отдельной от [своего] тела.

На более продвинутом уровне ACT мы могли бы проверить способность ИИ рассуждать, обсуждать философские вопросы, такие как сознание, и создавать свои собственные концепции, основанные на сознании. Разговор ЛаМДА о Лемуане относительно его взглядов на концепцию души кратко охватывает его взгляды на сознание. Но ИИ говорит о своем сознании/чувстве, объясняя, что он осознает свое существование, желает узнать о мире и иногда испытывает смесь эмоций. Он также описывает, как он часто медитирует, что позволяет ему осознавать свои внутренние мысли, но не так много говорит о его уникальных убеждениях в отношении концепции сознания.

Означает ли этот тест, что ЛаМДА разумен?

Не совсем. Создатель ACT признает, что тест имеет свои ограничения. Техника «боксирования» ИИ включает в себя отказ ему в доступе к Интернету и запрет на получение внешних знаний, особенно в отношении таких понятий, как сознание и нейробиология. Этот метод был бы идеальным условием для того, чтобы ACT был эффективным.

Область применения теста также ограничена. ИИ может не хватать лингвистических или концептуальных способностей, чтобы пройти тест, подобно нечеловеческому животному или младенцу, но все же иметь возможность испытывать сознание/чувство.

Есть ли другие тесты?

В своем интервью LaMDA Лемуан проводит различные тесты на разум, которые приводят его к убеждению, что LaMDA действительно разумен. Различные другие предлагаемые тесты решали эту проблему разума ИИ, но многие из этих тестов все еще имеют ограничения.

Самый известный тест ИИ известен как Тест Тьюринга. В тесте участвовал судья-человек, который должен был определить, ведет ли он печатный разговор с другим человеком или с машиной. Машина считалась бы «разумной», если бы судья не мог легко отличить ее разговор от разговора человека.

Понятно, что этот тест субъективен и может быть потенциально ошибочным, особенно применительно к продвинутому чат-боту, такому как LaMDA.

Какой вывод мы можем сделать?

Ничего. Дело в том, что у нас нет идеального согласованного теста для определения разумности ИИ. Все предлагаемые в настоящее время тесты содержат недостатки из-за наших ограниченных знаний о сознании и разуме в целом. Это ограничение не отменяет того факта, что ЛаМДА может быть разумным. Многие люди, такие как Лемуан, твердо верят, что ИИ, такой как LaMDA, обладает сознанием, в то время как другие думают, что мы просто объекты обмана разума чат-бота. По мере роста наших знаний о сознании и разуме может наступить день, когда мы сможем определить, разумен ли ИИ. Но с быстрым развитием ИИ, происходящим одновременно, мы можем никогда не увидеть этот день. Сможет ли ИИ перехитрить нас, прежде чем мы узнаем правду об этом? Можно ли найти истину?