File size: 4,546 Bytes
089dc2d 05ccd25 089dc2d 5bf329d 089dc2d c09100e 7291c2f c09100e 5bf329d 6af7d45 089dc2d 860c357 f4b1d9e 860c357 5bf329d c09100e 7291c2f c09100e 5bf329d 089dc2d 5bf329d 089dc2d 7291c2f e2ddef3 089dc2d 69a01cb 5bf329d 089dc2d 7291c2f 089dc2d 7291c2f 089dc2d 7291c2f 089dc2d 7291c2f 089dc2d 6018551 7291c2f 089dc2d 7291c2f 089dc2d 7291c2f 089dc2d 7291c2f 6018551 5b8e165 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 |
---
library_name: transformers
license: apache-2.0
datasets:
- Vikhrmodels/GrandMaster-PRO-MAX
language:
- ru
base_model:
- t-tech/T-lite-it-1.0
---
# Watari 7B (NullVersion)
- [EN]
Qwen2.5-based model, adapted for russian text generation tasks.
This is a base SFT version for further reasoning development and alignment.
- [RU]
Finetune версия Qwen2.5, адаптированная для генерации русского текста.
Является SFT базой для дальнейших ризонинг-оптимизаций с GRPO и алайнмента.
### Huge thanks to mradermacher for converting the model to GGUF format!
The further conversions/upgrade are much appreciated and welcomed, feel free to join.
[https://huggingface.co/mradermacher/Watari-7b-v0-GGUF]
**GGUF repo id**: mradermacher/Watari-7b-v0-GGUF
## Model Details / Детализация модели
- [EN]
Full supervised finetuning was performed on 2xA100 NVIDIA GPUs for 3 days on a portion of dataset:
GrandMaster [Vikhrmodels/GrandMaster-PRO-MAX]
- [RU]
Полный SFT цикл (bfloat16, без низкоранговых адаптеров LoRa) был выполнен на двух NVIDIA A100, обучение длилось 3 дня суммарно.
Использовалась часть датасета GrandMaster [Vikhrmodels/GrandMaster-PRO-MAX]
### Model Description / Описание модели
- **Developed by:** [Reisen Raumberg (Attention Signs team)]
- **Language(s) (NLP):** [RU/EN]
- **Finetuned from model:** [Qwen2.5]
Utilized DeepSpeed (Stage 3) and HF.Accelerator for distributed training.
### Using the model / Как запустить?
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
repo = 'attn-signs/Watari-7b-v0'
model = AutoModelForCausalLM.from_pretrained(repo)
tokenizer = AutoTokenizer.from_pretrained(repo)
model.to('cuda')
prompt = 'Что такое хорошо, а что такое плохо?'
messages = [
{"role": "system", "content": "Ты Ватари, ассистент и помощник в решении различных задач. Отвечай на вопросы пользователя, рассуждая."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=1024
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
```
```
Вопрос "Что такое хорошо, а что такое плохо?" является философским и субъективным, так как понятия "хорошо" и "плохо" могут иметь разные значения в зависимости от контекста и индивидуальных убеждений. Тем не менее, я могу привести общие определения этих понятий:
### Хорошо:
1. **Положительные эмоции**: Счастье, радость, благодарность.
2. **Добродетели**: Честь, доброта, честность.
3. **Успех**: Достижение целей и желаемых результатов.
4. **Здоровье**: Физическое и психическое благополучие.
5. **Духовное развитие**: Рост, самосовершенствование и самореализация.
### Плохо:
1. **Негативные эмоции**: Грусть, печаль, страх.
2. **Пороки**: Себялюбие, жадность, лжь.
3. **Неудачи**: Неспособность достичь целей и желаемых результатов.
4. **Болезнь**: Болезненные состояния и недуги.
5. **Падение духа**: Уныние, отчаяние, потеря мотивации.
Эти определения являются общими и могут варьироваться в зависимости от культурных, религиозных и личных взглядов каждого человека.
```
### LLM was trained using:
https://github.com/Raumberg/myllm |