aydndglr commited on
Commit
784e5d4
·
verified ·
1 Parent(s): cff8b20

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +61 -0
README.md ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - gemma2
4
+ - causal-lm
5
+ - text-generation
6
+ - turkish
7
+ - fine-tuned
8
+ - unsloth
9
+ library_name: transformers
10
+ model-index:
11
+ - name: aydndglr/Eva-9B-Turkish
12
+ results: []
13
+ language:
14
+ - tr
15
+ base_model:
16
+ - google/gemma-2-9b-it
17
+ ---
18
+
19
+ # aydndglr/Eva-9B-Turkish
20
+
21
+ Bu model, aydndglr tarafından Türkçe veri seti üzerinde ince ayar (fine-tuning) yapılmış bir Gemma2 modelidir. Model, metin üretimi ve diğer doğal dil işleme görevleri için optimize edilmiştir.
22
+
23
+ ## Model Detayları
24
+
25
+ * **Model Türü:** Gemma2 Causal Language Model
26
+ * **Ağırlıklar:** Gemma 9B temel alınarak ince ayar yapılmıştır.
27
+ * **Eğitim Verisi:** Özel bir Türkçe veri seti kullanılmıştır. (Wikipedia , çeşitli akademik araştırmalar ve içerikler)
28
+ * **Amaç:** Türkçe metin üretimi, kodlama desteği, siber güvenlik , sohbet botları, içerik oluşturma gibi görevler.
29
+ * **Geliştirici:** aydndglr
30
+
31
+ ## Teknik Özellikler
32
+
33
+ * **Mimari:** Gemma2ForCausalLM
34
+ * **Gizli Boyut (hidden_size):** 3584
35
+ * **Katman Sayısı (num_hidden_layers):** 42
36
+ * **Dikkat Başlığı Sayısı (num_attention_heads):** 16
37
+ * **Anahtar-Değer Başlığı Sayısı (num_key_value_heads):** 8
38
+ * **Kelime Hazinesi Boyutu (vocab_size):** 256000
39
+ * **Maksimum Pozisyon Gömme (max_position_embeddings):** 8192
40
+ * **Kayar Pencere (sliding_window_size):** 4096
41
+ * **Ağırlık Tipi (torch_dtype):** float16
42
+ * **Aktivasyon Fonksiyonu (hidden_act):** gelu\_pytorch\_tanh
43
+ * **Dikkat Sapması (attention_bias):** false
44
+ * **Dikkat Dropout (attention_dropout):** 0.0
45
+
46
+ ## Kullanım
47
+
48
+ Modeli `transformers` kütüphanesiyle yüklemek için:
49
+
50
+ ```python
51
+ from transformers import AutoModelForCausalLM, AutoTokenizer
52
+
53
+ model_name = "aydndglr/Eva-9B-Turkish"
54
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
55
+ model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="float16")
56
+
57
+ input_text = "Merhaba, nasılsın?"
58
+ input_ids = tokenizer.encode(input_text, return_tensors="pt")
59
+ output = model.generate(input_ids, max_length=100)
60
+ output_text = tokenizer.decode(output[0], skip_special_tokens=True)
61
+ print(output_text)