Быстрое развитие моделей большого языка (LLM) положило начало появлению закона масштабирования: с постоянно растущим размером как сетевых архитектур, так и наборов обучающих данных LLM демонстрируют сильную способность обобщения для решения широкого спектра задач обработки естественного языка.

Несмотря на отличную производительность этих крупномасштабных моделей, их точная настройка для адаптации к последующим задачам обычно отнимает много времени и требует больших вычислительных затрат.

Чтобы решить эту проблему, в новой статье Platypus: быстрое, дешевое и эффективное усовершенствование программ LLM исследовательская группа Бостонского университета представляет Platpus, семейство усовершенствованных и объединенных программ LLM, занявших первое место. в таблице лидеров Open LLM от HuggingFace, выполняя быструю, дешевую и мощную доработку обычных LLM.

Команда суммирует свой основной вклад следующим образом:

  1. Open-Platypus — небольшой набор данных, состоящий из тщательно отобранных общедоступных текстовых наборов данных. Набор данных ориентирован на улучшение знаний LLM в области STEM и логики и состоит из 11 наборов данных с открытым исходным кодом.
  2. Описание нашего процесса исключения сходства с целью уменьшить размер нашего набора данных, а также уменьшить избыточность данных.
  3. Подробный анализ вездесущего явления загрязнения открытых обучающих наборов LLM данными, содержащимися в важных наборах тестов LLM, а также описание нашего процесса фильтрации обучающих данных, чтобы избежать этой ловушки.
  4. Описание нашего процесса выбора и объединения наших специализированных доработанных модулей LoRA.

Команда начинает с курирования небольшого набора данных Open-Platypus. Схема выбора данных основана на гипотезе поверхностного выравнивания, которая указывает на то, что LLM могут достичь отличных результатов с минимальными обучающими данными. А из предыдущего исследования исследователи узнали, что базовые модели еще не достигли насыщения, а высококачественные входные данные имеют решающее значение для хорошего обучения…