Теперь мы готовы к дообучению нашей первой модели для вызова функций 🔥.
Ответ: Нам нужны данные.
Обучение модели можно разделить на 3 шага:
Модель предварительно обучается на большом количестве данных. Результатом этого шага является предварительно обученная модель. Например, google/gemma-2-2b. Это базовая модель, которая умеет только предсказывать следующий токен, не имеющая хороших способностей к следованию инструкциям.
Затем, чтобы модель была полезна в контексте чата, ее необходимо дообучить следовать инструкциям. На этом этапе она может быть обучена создателями модели, сообществом разработчиков, вами или всеми желающими. Например, google/gemma-2-2b-it это инструктивно дообученная модель от Google Tea, созданная в рамках проекта Gemma.
Затем модель может быть выровнена (aligned) в соответствии с предпочтениями создателя. Например, модель чата службы поддержки, которая никогда не должна быть невежливой с клиентами.
Обычно полноценный продукт вроде Gemini или Mistral проходит все 3 этапа, в то время как модели, которые вы можете найти на Hugging Face, прошли один или несколько этапов этого обучения.
В этом руководстве мы создадим модель вызова функций на основе google/gemma-2-2b-it. Мы выбрали дообученую модель google/gemma-2-2b-it вместо базовой модели google/gemma-2-2b, потому что дообученная модель лучше подходит для нашего случая использования.
Если начать с предварительно обученной модели, потребуется больше тренировок, чтобы научить модель следовать инструкциям, общаться в чате И вызывать функции.
Начиная с инструктивно дообученной модели, мы минимизируем количество информации, которое необходимо изучить нашей модели.
LoRA (Low-Rank Adaptation of Large Language Models, Низкоранговая Адаптация Больших Языковых Моделей) это популярная и легковесная техника обучения, которая значительно сокращает количество обучаемых параметров.
Она работает путем вставки меньшего количества новых весов в качестве адаптера в модель для обучения. Это делает обучение с LoRA намного быстрее, экономит память и создает меньшие веса модели (несколько сотен мегабайт), которые легче хранить и распространять.
LoRA работает путем добавления пар матриц рангового разложения в слои трансформеров, обычно сосредоточенных на линейных слоях. Во время обучения мы “замораживаем” остальную часть модели и обновляем веса только недавно добавленных адаптеров.
Таким образом, количество параметров, которые нам нужно обучить, значительно уменьшается, поскольку нам нужно обновлять только веса адаптеров.
Во время инференса входные данные передаются в адаптер и базовую модель или эти веса адаптера могут быть объединены с базовой моделью, что не приводит к дополнительным затратам времени.
LoRA особенно полезна для адаптации больших языковых моделей к конкретным задачам или доменам при сохранении управляемых требований к ресурсам. Это помогает сократить объем памяти, требуемый для обучения модели.
Если вы хотите узнать больше о том, как работает LoRA, ознакомьтесь с этим руководством.
Вы можете получить доступ к учебному блокноту 👉 здесь.
Затем нажмите на Open In Colab, чтобы запустить его в Colab Notebook.
< > Update on GitHub