ChatGPT произвел революцию в том, как мы взаимодействуем с искусственным интеллектом, предоставив разработчикам мощный инструмент для создания приложений, превосходящих наши ожидания. Однако, как и в случае с любой передовой технологией, возникают определенные проблемы. Одной из заметных проблем является возникновение галлюцинаций, когда ChatGPT генерирует ответы, которые могут казаться реалистичными, но недостаточно точными или основанными на воображаемой информации. В этой статье мы рассмотрим шесть основных причин этих галлюцинаций и предоставим разработчикам программного обеспечения советы, как смягчить их воздействие.

С момента своего запуска в ноябре 2022 года OpenAI неустанно повышает точность и надежность ответов приложения чата для обычных пользователей. Однако, как разработчики, вы сталкиваетесь с уникальными проблемами при интеграции API ChatGPT в свои приложения. Эти проблемы возникают из-за необходимости наложения ограничений на подсказки для беспрепятственной интеграции ответов модели в ваше приложение.

Например, давайте рассмотрим анализ настроений. Как обычный пользователь, вы можете просто предоставить текст и попросить ChatGPT проанализировать его настроение. Скорее всего, вы получите точный и исчерпывающий ответ, который подойдет большинству пользователей. Однако, как у разработчика, у вас есть определенные требования. Вы ожидаете ответа из одного слова из заранее определенного списка: «положительно», «отрицательно» или «нейтрально». Чтобы выполнить это требование, вы включите в приглашение это дополнительное ограничение, ограничивающее свободу модели GPT. По мере того как проблемы, которые вы решаете, становятся более сложными, ограничения, налагаемые на модель, будут увеличиваться. Это может привести к более высокой вероятности столкнуться с галлюцинаторными реакциями. Но не волнуйтесь! Мы вместе рассмотрим эти проблемы и найдем эффективные стратегии для их преодоления на вашем пути развития.

В этой статье я рассказал о шести наиболее распространенных причинах галлюцинаций, с которыми может столкнуться разработчик при работе с ограничениями.

Частичная информация

Одной из основных причин галлюцинаций в приложениях ChatGPT является создание контента на основе частичной информации. При появлении запроса на создание ответа с использованием заданной части информации существует вероятность того, что важные детали, необходимые для создания ответа, отсутствуют. Несмотря на это, цель ChatGPT — генерировать ответ независимо от того, доступна ли необходимая информация. В результате он может дать реалистично выглядящий ответ, который включает воображаемую информацию. Разработчики должны знать об этом ограничении и принимать меры для обеспечения полноты подсказки ввода.

Пример: рассмотрим этот короткий фрагмент текста, взятый из статьи IndianExpress.

Подсказка: Марк Цукерберг, генеральный директор Meta, работает на платформе микроблогов Twitter уже более десяти лет. Тем не менее, недавно он сделал свой первый твит за 11 лет, используя культового Человека-паука, указывающего на мем Человека-паука, косвенно объявив о запуске альтернативы Twitter, Threads. Threads — это новейшая платформа социальных сетей для микроблогов, разработанная Meta для конкуренции с Twitter. По словам Цукерберга, платформа уже привлекла более двух миллионов пользователей всего за два часа. Он также предсказывает, что вскоре Threads станет основным приложением для публичных разговоров с более чем миллиардом пользователей.

Ответьте одним словом, есть ли у Threads хештеги?

Ответ: Да.

Однако в настоящее время потоки не предлагают хэштеги, и из-за ограничения ответа из одного слова модель не может сказать, что она не знает фактического ответа.

Растягивание содержимого

Вторая причина галлюцинаций в ChatGPT — это когда контент выходит за пределы своего первоначального объема. Давайте продолжим наш предыдущий пример: если вы попросите ChatGPT расширить короткий фрагмент до текста из 500 слов, модель будет вынуждена делать выводы на основе предоставленной информации.

Когда я тестировал эту подсказку, ChatGPT сделал множество выводов о потоках, основываясь на том факте, что она напоминает Twitter и быстро набирает популярность. Один из выводов предполагает, что Threads позволяет пользователям делиться мыслями, идеями и опытом с помощью небольших сообщений. Кроме того, ChatGPT упомянул об интеграции визуального контента и обширной библиотеки выразительных мемов, превращающих повседневные разговоры в увлекательное взаимодействие.

Важно отметить, что нигде в исходном тексте не было упоминания о том, что потоки имеют интеграцию визуального контента или библиотеку мемов. Однако ChatGPT сделал эти выводы, связав потоки с такими платформами, как WhatsApp и Instagram, что было разумным, но потенциально неточным предположением.

Это показывает, как растягивание контента может привести к галлюцинациям от ChatGPT.

Ссылка на дату и время

Третья причина галлюцинаций в ChatGPT связана с устаревшей базой знаний. Информация ChatGPT последний раз обновлялась в 2021 году, и предполагается, что текущий год — 2021. Однако это может привести к ошибкам при указании дат относительно сегодняшнего дня. В результате любые оценки или расчеты, которые ChatGPT делает на основе дат, могут быть неверными. Это несоответствие становится особенно очевидным при обсуждении недавних событий или срочных тем.

На прошлой неделе я попросил ChatGPT обобщить новостную статью из 200 слов всего в 64 слова. Во время процесса ChatGPT по ошибке изменил фразу «в прошлом году» на «2020». Хотя важно отметить, что эта проблема относится к ChatGPT API, а не к приложению чата.

Следовательно, разработчики должны знать о несоответствии между знаниями ChatGPT и текущей датой. Крайне важно ввести контекст текущей даты и времени в ваше приглашение, чтобы уменьшить возникновение галлюцинаторных ответов, связанных со ссылками на дату и время в ChatGPT.

Ложные предпосылки

Четвертая причина галлюцинаций в ChatGPT — ограниченные возможности проверки фактов. Хотя ChatGPT отлично справляется с частичной информацией, ему не хватает возможности проверить точность предоставленных предпосылок. Он предполагает, что данные предпосылки верны, и генерирует ответы, основанные на этих предположениях, которые потенциально могут привести к дезинформации.

Например, в первые дни запуска ChatGPT я тестировал систему с подсказкой "Как использовать tf.concatenate в TensorFlow?". Несмотря на то, что в TensorFlow нет функции tf.concatenate, ChatGPT принял предпосылку и предоставил реалистично выглядящий, но неверный ответ.

Хотя эта конкретная проблема в основном была решена в последних версиях, важно признать, что нейронные сети все еще могут демонстрировать непредсказуемое поведение. В будущем могут возникнуть случаи, когда эта или подобные проблемы всплывут вновь. Поэтому разработчикам крайне важно помнить об этом ограничении. Проверяя точность предпосылок и проверяя ответы, разработчики могут свести к минимуму риск галлюцинаторной или вводящей в заблуждение информации, генерируемой ChatGPT.

Непонятные подсказки

Когда подсказкам не хватает ясности или полноты, ChatGPT может пытаться понять желаемую задачу и генерировать галлюцинаторные ответы. Например, если в подсказке не удается четко указать требуемое действие, ChatGPT может принять собственное решение, что приведет к ответу, который может не соответствовать намеченной цели. Разработчики должны создавать краткие, недвусмысленные подсказки и давать четкие инструкции, чтобы свести к минимуму вероятность галлюцинаций.

Сокращение длинного контента

Еще один сценарий, в котором могут возникнуть галлюцинации, — это попытка сжать длинную информацию в более компактную форму, сохранив при этом важные детали. В таких случаях ChatGPT может смешивать информацию, делать выводы и напрягать воображение, чтобы выполнить задачу в рамках желаемых ограничений. Этот процесс может привести к галлюцинациям, поскольку ChatGPT пытается заполнить пробелы или сделать предположения. Разработчики должны помнить об этой пятой тенденции и тщательно проверять сгенерированные ответы, чтобы обеспечить их точность и согласованность.

Заключение

Хотя ChatGPT, несомненно, произвел революцию в приложениях, управляемых ИИ, галлюцинации остаются проблемой, которую разработчики должны решать. Поняв шесть главных причин этих галлюцинаций, разработчики могут принять упреждающие меры, чтобы свести к минимуму их появление. Обеспечение полных и недвусмысленных подсказок, учет несоответствий даты и времени, проверка ложных предпосылок и проверка ответов на ясность — важные шаги для смягчения галлюцинаций в приложениях ChatGPT. Таким образом, разработчики могут использовать истинный потенциал ChatGPT, предоставляя пользователям надежную и точную информацию.