Публикации по теме 'gpt-3'


Microsoft ChatGPT, Google Bard… Но что у NVIDIA под волшебной шляпой? 🪄🎩
Вы слышали о Microsoft ChatGPT и Google Bard? Вероятно, да! Это два самых обсуждаемых приложения больших языковых моделей (LLM) в ИИ, и обе компании провели свои мероприятия, чтобы объявить, над чем они работают. Но что может предложить NVIDIA в отношении этих технологий? GTC Spring — это ответ! Если вы не хотите пропустить последние достижения в области LLM и генеративного ИИ, зарегистрируйтесь на GTC Spring сейчас . Это бесплатно, и вы сможете смотреть сеансы в прямом эфире..

Масштабирование GPT привело к появлению новых «типов» понимания
Масштабирование GPT привело к появлению новых «типов» понимания Ходит ошибочное мнение: «О, как наивно, размер на самом деле не имеет значения, GPT не становится умнее по сути ». Но какое это имеет значение! И это важно качественно . Многие анти-ChatGPT/ академики против нейронных сетей говорят, что все , что делает OpenAI , — это масштабирует LLM (большие языковые модели), и это не принесет ничего нового.

Первая попытка разобраться в ажиотаже вокруг LLM
Авторы: Норберт Маагер и Мариан Титц (Otto Group data.works GmbH) tl;dr: Стремясь автоматически отвечать на письма, мы исследуем меньшие и более крупные LLM, а также более классические подходы и сравниваем их на двух реальных наборах данных (почта службы поддержки клиентов). и данные чата). Мы пришли к выводу, что tf-idf/логистическая регрессия по-прежнему конкурентоспособны, но LLM конкурентоспособны, особенно в качестве базовых моделей, когда доступны только ограниченные..