--- library_name: transformers tags: [] --- # Watari 7B (NullVersion) - [EN] Qwen2.5-based model, adapted for russian text generation tasks. This is a base SFT version for further reasoning development and alignment. - [RU] Finetune версия Qwen2.5, адаптированная для генерации русского текста. Является SFT базой для дальнейших ризонинг-оптимизаций с GRPO и алайнмента. ### Huge thanks to mradermacher for converting the model to GGUF format! The further conversions/upgrade are much appreciated and welcomed, feel free to join. [https://huggingface.co/mradermacher/Watari-7b-v0-GGUF] **GGUF repo id**: mradermacher/Watari-7b-v0-GGUF ## Model Details / Детализация модели - [EN] Full supervised finetuning was performed on 2xA100 NVIDIA GPUs for 3 days on a portion of dataset: GrandMaster [Vikhrmodels/GrandMaster-PRO-MAX] - [RU] Полный SFT цикл (bfloat16, без низкоранговых адаптеров LoRa) был выполнен на двух NVIDIA A100, обучение длилось 3 дня суммарно. Использовалась часть датасета GrandMaster [Vikhrmodels/GrandMaster-PRO-MAX] ### Model Description / Описание модели - **Developed by:** [Reisen Raumberg (Attention Signs team)] - **Language(s) (NLP):** [RU/EN] - **Finetuned from model:** [Qwen2.5] Utilized DeepSpeed (Stage 3) and HF.Accelerator for distributed training. ### Using the model / Как запустить? ```python from transformers import AutoTokenizer, AutoModelForCausalLM repo = 'attn-signs/Watari-7b-v0' model = AutoModelForCausalLM.from_pretrained(repo) tokenizer = AutoTokenizer.from_pretrained(repo) model.to('cuda') prompt = 'Что такое хорошо, а что такое плохо?' messages = [ {"role": "system", "content": "Ты Ватари, ассистент и помощник в решении различных задач. Отвечай на вопросы пользователя, рассуждая."}, {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate( **model_inputs, max_new_tokens=1024 ) generated_ids = [ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids) ] response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response) ``` ``` Вопрос "Что такое хорошо, а что такое плохо?" является философским и субъективным, так как понятия "хорошо" и "плохо" могут иметь разные значения в зависимости от контекста и индивидуальных убеждений. Тем не менее, я могу привести общие определения этих понятий: ### Хорошо: 1. **Положительные эмоции**: Счастье, радость, благодарность. 2. **Добродетели**: Честь, доброта, честность. 3. **Успех**: Достижение целей и желаемых результатов. 4. **Здоровье**: Физическое и психическое благополучие. 5. **Духовное развитие**: Рост, самосовершенствование и самореализация. ### Плохо: 1. **Негативные эмоции**: Грусть, печаль, страх. 2. **Пороки**: Себялюбие, жадность, лжь. 3. **Неудачи**: Неспособность достичь целей и желаемых результатов. 4. **Болезнь**: Болезненные состояния и недуги. 5. **Падение духа**: Уныние, отчаяние, потеря мотивации. Эти определения являются общими и могут варьироваться в зависимости от культурных, религиозных и личных взглядов каждого человека. ``` ### LLM was trained using: https://github.com/Raumberg/myllm