fix namespace
Browse files- README.md +1 -1
- chat_transformers.py +1 -1
README.md
CHANGED
@@ -97,7 +97,7 @@ trainer:
|
|
97 |
num_train_epochs: 3
|
98 |
lr_scheduler_type: cosine
|
99 |
warmup_steps: 16
|
100 |
-
optim:
|
101 |
metric_for_best_model: eval_loss
|
102 |
load_best_model_at_end: true
|
103 |
save_total_limit: 2
|
|
|
97 |
num_train_epochs: 3
|
98 |
lr_scheduler_type: cosine
|
99 |
warmup_steps: 16
|
100 |
+
optim: adamw_8bit
|
101 |
metric_for_best_model: eval_loss
|
102 |
load_best_model_at_end: true
|
103 |
save_total_limit: 2
|
chat_transformers.py
CHANGED
@@ -5,7 +5,7 @@ from peft import PeftModel
|
|
5 |
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig, BitsAndBytesConfig
|
6 |
|
7 |
MODEL_BASE = "t-tech/T-lite-it-1.0"
|
8 |
-
MODEL_ADAPTER = "
|
9 |
|
10 |
SYSTEM_PROMPT = "Вы — ИИ-помощник. Отформатируйте свои ответы следующим образом: <Thought> Ваши мысли (понимание, рассуждения) </Thought> <output> Ваш ответ </output>"
|
11 |
|
|
|
5 |
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig, BitsAndBytesConfig
|
6 |
|
7 |
MODEL_BASE = "t-tech/T-lite-it-1.0"
|
8 |
+
MODEL_ADAPTER = "ZeroAgency/o1_t-lite-it-1.0_lora"
|
9 |
|
10 |
SYSTEM_PROMPT = "Вы — ИИ-помощник. Отформатируйте свои ответы следующим образом: <Thought> Ваши мысли (понимание, рассуждения) </Thought> <output> Ваш ответ </output>"
|
11 |
|