Egor-AI commited on
Commit
4e6ff44
·
verified ·
1 Parent(s): 28ab703

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +23 -1
README.md CHANGED
@@ -8,4 +8,26 @@ language:
8
  base_model:
9
  - t-tech/T-lite-it-1.0
10
  - ZeroAgency/o1_t-lite-it-1.0_lora
11
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8
  base_model:
9
  - t-tech/T-lite-it-1.0
10
  - ZeroAgency/o1_t-lite-it-1.0_lora
11
+ ---
12
+
13
+ Russian o1 / T-lite-it-1.0 LoRA GGUF
14
+ Based on https://huggingface.co/evilfreelancer/o1_t-lite-it-1.0_lora
15
+
16
+ LoRA-адаптер для модели T-lite-it-1.0 обученный на датасете Egor-AI/Russian_thinking_dataset (машинный перевод на русский язык датасета BintangFortuna/OpenO1-SFT-EN-SY).
17
+
18
+ Обученная модель способна имитировать логические размышлению на русском языке по аналогии с тем, как это делает o1 от OpenAI.
19
+
20
+ Необходимо использовать следующего вида системный промт:
21
+ ```
22
+ Вы — ИИ-помощник. Отформатируйте свои ответы следующим образом: <Thought> Ваши мысли (понимание, рассуждения) </Thought> <output> Ваш ответ </output>
23
+ Обучение производилось при помощи утилиты impruver используя конфигурацию T-lite-it/7B_lora_thinking с донастройкой:```
24
+
25
+ load_in_4bit: false
26
+ без max_tokens_count
27
+ optim: adamw_8bit
28
+ gradient_accumulation_steps: 1
29
+ На всё про всё ушло примерно 17.6 часов на 1xH100 80GB, при этом понадобилось 67Гб видеопамяти.
30
+
31
+ Результатирующий eval_loss: 0.5200754404067993
32
+
33
+ W&B run: https://wandb.ai/b37h3z3n/trains/runs/6vwvuu46?nw=nwuserb37h3z3n