File size: 4,546 Bytes
089dc2d
 
05ccd25
 
 
 
 
 
 
089dc2d
 
5bf329d
089dc2d
c09100e
7291c2f
c09100e
 
5bf329d
6af7d45
089dc2d
860c357
 
f4b1d9e
 
860c357
5bf329d
c09100e
7291c2f
 
c09100e
 
5bf329d
089dc2d
5bf329d
089dc2d
7291c2f
 
e2ddef3
089dc2d
69a01cb
 
5bf329d
089dc2d
7291c2f
 
089dc2d
7291c2f
089dc2d
7291c2f
 
089dc2d
7291c2f
089dc2d
6018551
7291c2f
 
 
 
 
 
 
 
 
 
089dc2d
7291c2f
 
 
 
 
 
 
089dc2d
7291c2f
089dc2d
7291c2f
6018551
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5b8e165
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
---
library_name: transformers
license: apache-2.0
datasets:
- Vikhrmodels/GrandMaster-PRO-MAX
language:
- ru
base_model:
- t-tech/T-lite-it-1.0
---

# Watari 7B (NullVersion)

- [EN]  
Qwen2.5-based model, adapted for russian text generation tasks.  
This is a base SFT version for further reasoning development and alignment.  
- [RU]  
Finetune версия Qwen2.5, адаптированная для генерации русского текста.  
Является SFT базой для дальнейших ризонинг-оптимизаций с GRPO и алайнмента.

### Huge thanks to mradermacher for converting the model to GGUF format!
The further conversions/upgrade are much appreciated and welcomed, feel free to join.
[https://huggingface.co/mradermacher/Watari-7b-v0-GGUF]  
**GGUF repo id**: mradermacher/Watari-7b-v0-GGUF

## Model Details / Детализация модели
- [EN]  
Full supervised finetuning was performed on 2xA100 NVIDIA GPUs for 3 days on a portion of dataset:  
GrandMaster [Vikhrmodels/GrandMaster-PRO-MAX]
- [RU]  
Полный SFT цикл (bfloat16, без низкоранговых адаптеров LoRa) был выполнен на двух NVIDIA A100, обучение длилось 3 дня суммарно.  
Использовалась часть датасета GrandMaster [Vikhrmodels/GrandMaster-PRO-MAX]

### Model Description / Описание модели

- **Developed by:** [Reisen Raumberg (Attention Signs team)]
- **Language(s) (NLP):** [RU/EN]
- **Finetuned from model:** [Qwen2.5]

Utilized DeepSpeed (Stage 3) and HF.Accelerator for distributed training. 

### Using the model / Как запустить?

```python
from transformers import AutoTokenizer, AutoModelForCausalLM

repo = 'attn-signs/Watari-7b-v0'

model = AutoModelForCausalLM.from_pretrained(repo)
tokenizer = AutoTokenizer.from_pretrained(repo)

model.to('cuda')

prompt = 'Что такое хорошо, а что такое плохо?'
messages = [
    {"role": "system", "content": "Ты Ватари, ассистент и помощник в решении различных задач. Отвечай на вопросы пользователя, рассуждая."},
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=1024
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

print(response)
```

```
Вопрос "Что такое хорошо, а что такое плохо?" является философским и субъективным, так как понятия "хорошо" и "плохо" могут иметь разные значения в зависимости от контекста и индивидуальных убеждений. Тем не менее, я могу привести общие определения этих понятий:

### Хорошо:
1. **Положительные эмоции**: Счастье, радость, благодарность.
2. **Добродетели**: Честь, доброта, честность.
3. **Успех**: Достижение целей и желаемых результатов.
4. **Здоровье**: Физическое и психическое благополучие.
5. **Духовное развитие**: Рост, самосовершенствование и самореализация.

### Плохо:
1. **Негативные эмоции**: Грусть, печаль, страх.
2. **Пороки**: Себялюбие, жадность, лжь.
3. **Неудачи**: Неспособность достичь целей и желаемых результатов.
4. **Болезнь**: Болезненные состояния и недуги.
5. **Падение духа**: Уныние, отчаяние, потеря мотивации.

Эти определения являются общими и могут варьироваться в зависимости от культурных, религиозных и личных взглядов каждого человека.
```

### LLM was trained using:
https://github.com/Raumberg/myllm