Публикации по теме 'zero-shot-learning'


Tokyo U и Google Brain тренируют большие языковые модели как Zero Shot Reasoners
Предварительно обученные большие языковые модели (LLM) теперь масштабируются до более чем 100 миллиардов параметров и произвели революцию в области обработки естественного языка (NLP) благодаря своим превосходным возможностям обучения с использованием нескольких и нулевых шагов. Однако, хотя современные LLM быстро справляются с задачами системы 1, они все еще испытывают трудности с задачами системы 2, которые требуют медленной и многозадачной работы…