![]()
Добро пожаловать в первый Бонусный раздел, в котором вы научитесь дообучать Большую Языковую Модель (LLM) вызову функций.
С точки зрения LLM, вызов функций быстро становится обязательной техникой.
Идея заключается в том, что вместо того, чтобы полагаться только на подходы, основанные на подсказках, как мы делали в разделе 1, вызов функций обучает вашу модель предпринимать действия и интерпретировать наблюдения на этапе обучения, делая ваш AI более надежным.
Когда мне следует выполнить этот Бонусный раздел?
Этот раздел является опциональным и более продвинутым, чем Раздел 1, поэтому не стесняйтесь либо выполнить этот раздел сейчас, либо вернуться к нему, когда ваши знания улучшатся благодаря этому курсу.
Но не волнуйтесь, в этом бонусном разделе собрана вся необходимая информация, поэтому мы расскажем вам обо всех основных концепциях дообучения модели вызову функций, даже если вы еще не изучили механизм дообучения.
Лучший способ для вас пройти этот Бонусный Раздел - это:
Знать, как дообучить LLM трансформер, если это не так изучите это
Знать, как использовать SFTTrainer для дообучения нашей модели, чтобы узнать об этом больше изучите документацию
Вызов функций Как современные LLM эффективно структурируют свои диалоги, позволяя запускать Инструменты**.
LoRA (Low-Rank Adaptation). Легкий и эффективный метод дообучения, сокращающий накладные расходы на вычисления и хранение данных. LoRA делает обучение больших моделей быстрым, дешевым и простым в развертывании.
**Цикл «Мысль → Действие → Наблюдение» в моделях вызова функций Простой, но мощный подход к структурированию того, как ваша модель решает, когда (и как) вызывать функции, отслеживать промежуточные шаги и интерпретировать результаты, полученные от внешних инструментов или API.
Новые специальные токены. Мы введем специальные маркеры, которые помогут модели различать:
К концу этого раздела вы сможете:
И вы доработаете свою собственную модель для вызова функций 🔥.
Давайте погрузимся в вызов функций!
< > Update on GitHub