lbourdois commited on
Commit
4436abe
·
verified ·
1 Parent(s): 9f827ac

Improve language tag

Browse files

Hi! As the model is multilingual, this is a PR to add other languages than English to the language tag to improve the referencing. Note that 29 languages are announced in the README, but only 13 are explicitly listed. I was therefore only able to add these 13 languages.

Files changed (1) hide show
  1. README.md +143 -132
README.md CHANGED
@@ -1,133 +1,144 @@
1
- ---
2
- library_name: transformers
3
- model_name: Vikhr-Qwen-2.5-0.5b-Instruct
4
- base_model:
5
- - Qwen/Qwen2.5-0.5B-Instruct
6
- language:
7
- - ru
8
- - en
9
- license: apache-2.0
10
- datasets:
11
- - Vikhrmodels/GrandMaster-PRO-MAX
12
- ---
13
-
14
- # 💨📟 Vikhr-Qwen-2.5-0.5B-Instruct
15
-
16
- #### RU
17
-
18
- Инструктивная модель на основе **Qwen-2.5-0.5B-Instruct**, обученная на русскоязычном датасете **GrandMaster-PRO-MAX**. В **4 раза эффективнее** базовой модели, и идеально подходит для запуска на слабых мобильных устройствах.
19
-
20
- #### EN
21
-
22
- Instructive model based on **Qwen-2.5-0.5B-Instruct**, trained on the Russian-language dataset **GrandMaster-PRO-MAX**. It is **4 times more efficient** than the base model, making it perfect for deployment on low-end mobile devices.
23
-
24
- ## GGUF
25
-
26
- - [Vikhrmodels/Vikhr-Qwen-2.5-0.5B-instruct-GGUF](https://huggingface.co/Vikhrmodels/Vikhr-Qwen-2.5-0.5B-instruct-GGUF)
27
-
28
- ## Особенности:
29
-
30
- - 📚 Основа / Base: [Qwen-2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct)
31
- - 🇷🇺 Специализация / Specialization: **RU**
32
- - 💾 Датасет / Dataset: [GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX)
33
-
34
- ## Попробовать / Try now:
35
-
36
- [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/drive/1bJpLmplDGkMbfOLO2CH6IO-2uUZEaknf?usp=sharing)
37
-
38
- ## Описание:
39
-
40
- #### RU
41
-
42
- **Vikhr-Qwen-2.5-0.5B-instruct** это компактная языковая модель, обученная на датасете **GrandMaster-PRO-MAX**, специально доученная для обработки русского языка. Эффективность модели **в 4 раза** превышает базовую модель, а её размер составляет **1ГБ** , что делает её отличным выбором для запуска на слабых мобильных устройствах.
43
-
44
- #### EN
45
-
46
- **Vikhr-Qwen-2.5-0.5B-instruct** is a compact language model trained on the **GrandMaster-PRO-MAX** dataset, specifically designed for processing the Russian language. Its efficiency is **4 times** higher than the base model, and its size is **1GB**, making it an excellent choice for deployment on low-end mobile devices.
47
-
48
- ## Обучение / Train:
49
-
50
- #### RU
51
-
52
- Для создания **Vikhr-Qwen-2.5-0.5B-Instruct** использовался метод SFT (Supervised Fine-Tuning). Мы обучили модель на синтетическом датасете **Vikhrmodels/GrandMaster-PRO-MAX** (150k инструкций) с поддержкой CoT (Chain-Of-Thought), используя промпты для GPT-4-turbo.
53
-
54
- #### EN
55
-
56
- To create **Vikhr-Qwen-2.5-0.5B-Instruct**, the SFT (Supervised Fine-Tuning) method was used. We trained the model on a synthetic dataset **Vikhrmodels/GrandMaster-PRO-MAX** (150k instructions) with support for CoT (Chain-Of-Thought), utilizing prompts for GPT-4-turbo.
57
-
58
- ## Пример кода для запуска / Sample code to run:
59
-
60
- **Рекомендуемая температура для генерации: 0.3** / **Recommended generation temperature: 0.3**.
61
-
62
- ```python
63
- from transformers import AutoModelForCausalLM, AutoTokenizer
64
-
65
- # Загрузка модели и токенизатора
66
- model_name = "Vikhrmodels/Vikhr-Qwen-2.5-0.5B-Instruct"
67
- model = AutoModelForCausalLM.from_pretrained(model_name)
68
- tokenizer = AutoTokenizer.from_pretrained(model_name)
69
-
70
- # Подготовка входного текста
71
- input_text = "Напиши очень краткую рецензию о книге Гарри Поттер."
72
-
73
- messages = [
74
- {"role": "system", "content": "Вы - Vikhr, помощник с искусственным интеллектом, созданный компанией Vikhr models, чтобы быть полезным, безобидным и честным."},
75
- {"role": "user", "content": input_text},
76
- ]
77
-
78
- # Токенизация и генерация текста
79
- input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
80
- output = model.generate(
81
- input_ids,
82
- max_length=1512,
83
- temperature=0.3,
84
- num_return_sequences=1,
85
- no_repeat_ngram_size=2,
86
- top_k=50,
87
- top_p=0.95,
88
- )
89
-
90
- # Декодирование и вывод результата
91
- generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
92
- print(generated_text)
93
- ```
94
-
95
- #### Ответ модели / Model response:
96
-
97
- >Книга "Гарри Поттер" – это серия книг, написанных британским писателем Джоан Роулинг. Это одно из самых известных произведений в мире литературы и популярного детского творчеств��.
98
- >
99
- >**Основные черты серии:**
100
- >
101
- >1. **Сюжет:** События разворачиваются вокруг мальчика по имени Гарри Поттер, который учится в Школе волшебства и философии в Университете Хогвартс. Он сталкивается с различными препятствиями, включая борьбу со злом, поиск друзей и самопознание.
102
- >
103
- >2. **Персонажи:** В книге представлены множество персонажей, каждый из которых имеет свои уникальные черты характера, мотивации и прошлое. Главный герой, Гарри Поттер, является примером доброго и смелого человека, а также необычной личностью.
104
- >
105
- >3. **Темы и идеи:** Рассказы книги затрагивают темы любви, дружбы, справедливости, морали, человеческой неповиновенности и важности обучения через приключения.
106
- >
107
- >4. **История и развитие персонажей:** Через события и взаимодействие с другими персонажами книга исследует глубокие психологические и философские вопросы.
108
- >
109
- >5. **Влияние на культуру:** "Гарри Поттер" оказал огромное влияние на мировую литературу, превратившись в культовый жанр и символ знаний и мудрости.
110
- >
111
- >6. **Доступность:** Книги серии доступны для широкой аудитории и пользуются большим спросом, что делает их популярным выбором среди читателей всех возрастов.
112
- >
113
- >7. **Развитие жанра:** Несмотря на то что "Гарри Поттер" является частью серии, он продолжает быть любимым и актуальным, так как продолжает удивлять читателей новыми историями и персонажами.
114
- >
115
- >Эта серия книг остается одной из самых значительных и влиятельных в истории литературы, оказав влияние на развитие мировой культуры и образование.
116
-
117
-
118
- ### Авторы / Authors
119
-
120
- - Sergei Bratchikov, [NLP Wanderer](https://t.me/nlpwanderer), [Vikhr Team](https://t.me/vikhrlabs)
121
- - Nikolay Kompanets, [LakoMoor](https://t.me/lakomoor), [Vikhr Team](https://t.me/vikhrlabs)
122
- - Konstantin Korolev, [Vikhr Team](https://t.me/vikhrlabs)
123
- - Aleksandr Nikolich, [Vikhr Team](https://t.me/vikhrlabs)
124
-
125
- ```
126
- @article{nikolich2024vikhr,
127
- title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian},
128
- author={Aleksandr Nikolich and Konstantin Korolev and Sergey Bratchikov and Nikolay Kompanets and Artem Shelmanov},
129
- journal={arXiv preprint arXiv:2405.13929},
130
- year={2024},
131
- url={https://arxiv.org/pdf/2405.13929}
132
- }
 
 
 
 
 
 
 
 
 
 
 
133
  ```
 
1
+ ---
2
+ library_name: transformers
3
+ model_name: Vikhr-Qwen-2.5-0.5b-Instruct
4
+ base_model:
5
+ - Qwen/Qwen2.5-0.5B-Instruct
6
+ language:
7
+ - zho
8
+ - eng
9
+ - fra
10
+ - spa
11
+ - por
12
+ - deu
13
+ - ita
14
+ - rus
15
+ - jpn
16
+ - kor
17
+ - vie
18
+ - tha
19
+ - ara
20
+ license: apache-2.0
21
+ datasets:
22
+ - Vikhrmodels/GrandMaster-PRO-MAX
23
+ ---
24
+
25
+ # 💨📟 Vikhr-Qwen-2.5-0.5B-Instruct
26
+
27
+ #### RU
28
+
29
+ Инструктивная модель на основе **Qwen-2.5-0.5B-Instruct**, обученная на русскоязычном датасете **GrandMaster-PRO-MAX**. В **4 раза эффективнее** базовой модели, и идеально подходит для запуска на слабых мобильных устройствах.
30
+
31
+ #### EN
32
+
33
+ Instructive model based on **Qwen-2.5-0.5B-Instruct**, trained on the Russian-language dataset **GrandMaster-PRO-MAX**. It is **4 times more efficient** than the base model, making it perfect for deployment on low-end mobile devices.
34
+
35
+ ## GGUF
36
+
37
+ - [Vikhrmodels/Vikhr-Qwen-2.5-0.5B-instruct-GGUF](https://huggingface.co/Vikhrmodels/Vikhr-Qwen-2.5-0.5B-instruct-GGUF)
38
+
39
+ ## Особенности:
40
+
41
+ - 📚 Основа / Base: [Qwen-2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct)
42
+ - 🇷🇺 Специализация / Specialization: **RU**
43
+ - 💾 Датасет / Dataset: [GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX)
44
+
45
+ ## Попробовать / Try now:
46
+
47
+ [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/drive/1bJpLmplDGkMbfOLO2CH6IO-2uUZEaknf?usp=sharing)
48
+
49
+ ## Описание:
50
+
51
+ #### RU
52
+
53
+ **Vikhr-Qwen-2.5-0.5B-instruct** — это компактная языковая модель, обученная на датасете **GrandMaster-PRO-MAX**, специально доученная для обработки русского языка. Эффективность модели **в 4 раза** превышает базовую модель, а её размер составляет **1ГБ** , что делает её отличным выбором для запуска на слабых мобильных устройствах.
54
+
55
+ #### EN
56
+
57
+ **Vikhr-Qwen-2.5-0.5B-instruct** is a compact language model trained on the **GrandMaster-PRO-MAX** dataset, specifically designed for processing the Russian language. Its efficiency is **4 times** higher than the base model, and its size is **1GB**, making it an excellent choice for deployment on low-end mobile devices.
58
+
59
+ ## Обучение / Train:
60
+
61
+ #### RU
62
+
63
+ Для создания **Vikhr-Qwen-2.5-0.5B-Instruct** использовался метод SFT (Supervised Fine-Tuning). Мы обучили модель на синтетическом датасете **Vikhrmodels/GrandMaster-PRO-MAX** (150k инструкций) с поддержкой CoT (Chain-Of-Thought), используя промпты для GPT-4-turbo.
64
+
65
+ #### EN
66
+
67
+ To create **Vikhr-Qwen-2.5-0.5B-Instruct**, the SFT (Supervised Fine-Tuning) method was used. We trained the model on a synthetic dataset **Vikhrmodels/GrandMaster-PRO-MAX** (150k instructions) with support for CoT (Chain-Of-Thought), utilizing prompts for GPT-4-turbo.
68
+
69
+ ## Пример кода для запуска / Sample code to run:
70
+
71
+ **Рекомендуемая температура для генерации: 0.3** / **Recommended generation temperature: 0.3**.
72
+
73
+ ```python
74
+ from transformers import AutoModelForCausalLM, AutoTokenizer
75
+
76
+ # Загрузка модели и токенизатора
77
+ model_name = "Vikhrmodels/Vikhr-Qwen-2.5-0.5B-Instruct"
78
+ model = AutoModelForCausalLM.from_pretrained(model_name)
79
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
80
+
81
+ # Подготовка входного текста
82
+ input_text = "Напиши очень краткую рецензию о книге Гарри Поттер."
83
+
84
+ messages = [
85
+ {"role": "system", "content": "Вы - Vikhr, помощник с искусственным интеллектом, созданный компанией Vikhr models, чтобы быть полезным, безобидным и честным."},
86
+ {"role": "user", "content": input_text},
87
+ ]
88
+
89
+ # Токенизация и генерация текста
90
+ input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
91
+ output = model.generate(
92
+ input_ids,
93
+ max_length=1512,
94
+ temperature=0.3,
95
+ num_return_sequences=1,
96
+ no_repeat_ngram_size=2,
97
+ top_k=50,
98
+ top_p=0.95,
99
+ )
100
+
101
+ # Декодирование и вывод результата
102
+ generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
103
+ print(generated_text)
104
+ ```
105
+
106
+ #### Ответ модели / Model response:
107
+
108
+ >Книга "Гарри Поттер" – это серия книг, написанных британским писателем Джоан Роулинг. Это одно из самых известных произведений в мире литературы и популярного детского творчества.
109
+ >
110
+ >**Основные черты серии:**
111
+ >
112
+ >1. **Сюжет:** События разворачиваются вокруг мальчика по имени Гарри Поттер, который учится в Школе волшебства и философии в Университете Хогвартс. Он сталкивается с различными препятствиями, включая борьбу со злом, поиск друзей и самопознание.
113
+ >
114
+ >2. **Персонажи:** В книге представлены множество персонажей, каждый из которых имеет свои уникальные черты характера, мотивации и прошлое. Главный герой, Гарри Поттер, является примером доброго и смелого человека, а также необычной личностью.
115
+ >
116
+ >3. **Темы и идеи:** Рассказы книги затрагивают темы любви, дружбы, справедливости, морали, человеческой неповиновенности и важности обучения через приключения.
117
+ >
118
+ >4. **История и развитие персонажей:** Через события и взаимодействие с другими персонажами книга исследует глубокие психологические и философские вопросы.
119
+ >
120
+ >5. **Влияние на культуру:** "Гарри Поттер" оказал огромное влияние на мировую литературу, превратившись в культовый жанр и символ знаний и мудрости.
121
+ >
122
+ >6. **Доступность:** Книги серии доступны для широкой аудитории и пользуются большим спросом, что делает их популярным выбором среди читателей всех возрастов.
123
+ >
124
+ >7. **Развитие жанра:** Несмотря на то что "Гарри Поттер" является частью серии, он продолжает быть любимым и актуальным, так как продолжает удивлять читателей новыми историями и персонажами.
125
+ >
126
+ >Эта серия книг остается одной из самых значительных и влиятельных в истории литературы, оказав влияние на развитие мировой культуры и образование.
127
+
128
+
129
+ ### Авторы / Authors
130
+
131
+ - Sergei Bratchikov, [NLP Wanderer](https://t.me/nlpwanderer), [Vikhr Team](https://t.me/vikhrlabs)
132
+ - Nikolay Kompanets, [LakoMoor](https://t.me/lakomoor), [Vikhr Team](https://t.me/vikhrlabs)
133
+ - Konstantin Korolev, [Vikhr Team](https://t.me/vikhrlabs)
134
+ - Aleksandr Nikolich, [Vikhr Team](https://t.me/vikhrlabs)
135
+
136
+ ```
137
+ @article{nikolich2024vikhr,
138
+ title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian},
139
+ author={Aleksandr Nikolich and Konstantin Korolev and Sergey Bratchikov and Nikolay Kompanets and Artem Shelmanov},
140
+ journal={arXiv preprint arXiv:2405.13929},
141
+ year={2024},
142
+ url={https://arxiv.org/pdf/2405.13929}
143
+ }
144
  ```