File size: 2,868 Bytes
feadb84
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b4d684d
feadb84
 
642ded5
 
 
 
 
4880b7d
 
 
 
0dea9de
7df9b91
 
 
 
e860922
 
 
 
d1f56d0
 
 
 
2773fec
d1f56d0
 
 
feadb84
56b5f38
 
 
e860922
56b5f38
 
e860922
56b5f38
feadb84
 
2773fec
 
 
 
 
 
b4d684d
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
---
base_model: unsloth/meta-llama-3.1-8b-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- sebaxakerhtc
- bggpt
- llama
- trl
license: apache-2.0
language:
- bg
datasets:
- burgasdotpro/synthetic_dataset
- wikimedia/wikipedia
---

Актуализиран 10.01.2025
  - Changed training params
  - Continued pretraining
  - Уикипедиа 10%

Актуализиран 06.01.2025
  - Changed training params
  - Continued pretraining
  - Уикипедиа 10%

Актуализиран 03.01.2025
  - Continued pretraining
  - Уикипедиа 20%

Актуализиран 01.01.2025
  - Continued pretraining
  - Уикипедиа 10%

Актуализиран 30.12.2024
  - по-дълги отговори
  - по-подробна информация
  - по-дълбоко обучение
  - ~2500 реда синтетични данни

~~Първите резултати, които не са лоши...~~
~~Засега е тренирана върху моят малък датасет с 2000 реда синтетични данни (формат: въпрос-отговор)~~

# Пример на работа

### Въпрос:
Как компания Burgas Professionals е свързана с ПГМЕЕ?

### Отговор:
Компания "Burgas Professionals" поддържа тесни връзки с Професионалната гимназия по мехатроника и електроенергетика (ПГМЕЕ) в Бургас. Тези връзки включват партньорства, лекции и обучителни програми, които помагат на учениците да развият умения в областта на информационните технологии и IT управление. Основната цел е да се осигури на младото поколение достъп до актуална информация и практически опит, който ще ги направи готови за бъдещата работна среда. Чрез тези партньорства ПГМЕЕ и Burgas Professionals работят заедно за развитие на технологиите в региона и за подготовка на нови поколения IT специалисти.

Тази llama модела тренирана 2 пъти по-бързо с помоща на [Unsloth](https://github.com/unslothai/unsloth) и TRL библиотеката на Huggingface.

# Uploaded  model

- **Developed by:** burgasdotpro
- **License:** apache-2.0
- **Finetuned from model :** unsloth/meta-llama-3.1-8b-bnb-4bit

[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="100"/>](https://github.com/unslothai/unsloth)