File size: 1,428 Bytes
			
			b8a0338 30ef4c0 b8a0338 30ef4c0  | 
								1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51  | 
								---
library_name: transformers
datasets:
- cardiffnlp/tweet_eval
base_model:
- TinyLlama/TinyLlama-1.1B-Chat-v1.0
---
# Описание
Следовало дообучить базовую модель с помощью qLoRA
# Детали
Rjyabub
```python
peft_config = LoraConfig(
    lora_alpha=16,      
    lora_dropout=0.01,
    r=8, 
    bias="none",
    task_type="CAUSAL_LM",
    target_modules=["q_proj", "v_proj", "k_proj"],
training_arguments = TrainingArguments(
    output_dir="output_dir", 
    per_device_train_batch_size=8,
    gradient_accumulation_steps=8,          
    num_train_epochs=1,                       
    learning_rate=1e-4,                       
    lr_scheduler_type="constant_with_warmup",  
    logging_steps=50,                         
    save_steps=1000,                            
    evaluation_strategy="no", 
    report_to=[]                
)
trainer = SFTTrainer(
    model=model,
    train_dataset=sft_dataset["train"],
    args=training_arguments,
    peft_config=peft_config,
    processing_class=tokenizer,
)
trainer.train()
)
```
# Метрики 
Метрики ужасные, все нулевые
Из-за очень долго обучения(час эпоха) не вышло провести много экспериментов. Лосс всегда скакал от 0.86 к 0.88 и обратно, не было прогресса в обучение |