Предварительно обученные большие языковые модели (LLM) теперь масштабируются до более чем 100 миллиардов параметров и произвели революцию в области обработки естественного языка (NLP) благодаря своим превосходным возможностям обучения с использованием нескольких и нулевых шагов. Однако, хотя современные LLM быстро справляются с задачами системы 1, они все еще испытывают трудности с задачами системы 2, которые требуют медленной и многозадачной работы…