Update README.md
Browse files
README.md
CHANGED
@@ -57,7 +57,7 @@ base_model:
|
|
57 |
|
58 |
Тут для оценки качества модель-судья gpt-4o была проинструктирована учитывать релеватность и фактологичкскую полноту ответов исходя из документов и реферсного ответа от gpt-4-1106-preview.
|
59 |
|
60 |
-
Подробности промптов и оценок смотрите в коде бенчмарка
|
61 |
|
62 |
in_domain - вопросы которые связаны с содержанием предоставленных документов в той или иной степени \
|
63 |
out_of_domain - вопросы которые специально никак не связаны с содержанием предоставленных документов
|
@@ -180,7 +180,7 @@ out_of_domain - вопросы которые специально никак н
|
|
180 |
|
181 |
Для SFT этапа обучения модели мы подготовили большой (150к инструкций) инструктивный синтетический датасет [Vikhrmodels/GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX). Его особенностью является встроеный CoT (Chain-Of-Thought), для сбора которого мы использовали модифицированный промет для gpt-4-turbo, подробности в карточке датасета.
|
182 |
|
183 |
-
Кроме
|
184 |
|
185 |
#### Этап алайнмента с SMPO
|
186 |
|
|
|
57 |
|
58 |
Тут для оценки качества модель-судья gpt-4o была проинструктирована учитывать релеватность и фактологичкскую полноту ответов исходя из документов и реферсного ответа от gpt-4-1106-preview.
|
59 |
|
60 |
+
Подробности промптов и оценок смотрите в коде бенчмарка на [коллабе](https://colab.research.google.com/drive/16730rWQ4-yGqWoooLs0Ece_16frmOniP?usp=sharing)
|
61 |
|
62 |
in_domain - вопросы которые связаны с содержанием предоставленных документов в той или иной степени \
|
63 |
out_of_domain - вопросы которые специально никак не связаны с содержанием предоставленных документов
|
|
|
180 |
|
181 |
Для SFT этапа обучения модели мы подготовили большой (150к инструкций) инструктивный синтетический датасет [Vikhrmodels/GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX). Его особенностью является встроеный CoT (Chain-Of-Thought), для сбора которого мы использовали модифицированный промет для gpt-4-turbo, подробности в карточке датасета.
|
182 |
|
183 |
+
Кроме того, для того чтобы сделать RAG Grounding, мы подготовили другой синтетический датасет - [Vikhrmodels/Grounded-RAG-RU-v2](https://huggingface.co/datasets/Vikhrmodels/Grounded-RAG-RU-v2) (50k диалогов), его пайплайн сборки достаточно сложный для короткого описания и полробнее об этом вы можете прочитать в его карточке.
|
184 |
|
185 |
#### Этап алайнмента с SMPO
|
186 |
|