📚 Genel Açıklama Qwen3-14B-Merged-Education-TR, Alibaba’nın Qwen3 modelinin LoRA yöntemiyle Türk eğitim sistemi verileri (Millî Eğitim Temel Kanunu, yönetmelikler, zorunlu eğitim kademeleri, öğretmen atama-yer değiştirme, yükseköğretim mevzuatı, hayat boyu öğrenme raporları) üzerinde ince ayar yapılmış, 4-bit kuantalı tek dosya hâlinde dağıtılan özelleştirilmiş bir dil modelidir.
Model; öğretmenler, müfettişler, eğitim fakültesi öğrencileri, eğitim yöneticileri, mevzuat araştırmacıları ve güncel, güvenilir eğitim bilgisine hızla erişmek isteyen herkes için tasarlanmıştır. Türk eğitim sistemi, MEB teşkilat yapısı ve ilgili mevzuat hakkında açıklayıcı, pratiğe dönük ve madde-numaralı referanslar içeren yanıtlar üretir.
⚠️ Önemli Not Model çıktıları danışma amaçlıdır; resmî yazışma, dava dosyası veya kritik idarî kararlarda mutlaka güncel mevzuatı kontrol edin ve uzman görüşü alın.
✨ Yetenekler
- Türkiye’de zorunlu eğitim (4 + 4 + 4), okul kademeleri ve ders saatleri hakkında ayrıntılı bilgi
- MEB merkez-taşra teşkilatı, görev ve sorumluluklar (657 DMK, 1739 Sayılı Kanun, 3797 KHK)
- Öğretmen atama, yer değiştirme, kariyer basamakları (Adaylık, Uzman, Başöğretmen)
- Yükseköğretim program açma/kapama süreçleri, YÖK mevzuatı referanslı yanıtlar
- Hayat Boyu Öğrenme kurs programları, açık öğretim okulları ve akreditasyon bilgisi
- BEP / Özel eğitim destek modelleri ve RAM iş akışları
- 4-bit kuantalama ⇒ düşük bellekte hızlı yanıt
🚀 Hızlı Başlangıç
from unsloth import FastLanguageModel
device = "cuda" # veya "cpu"
max_seq_length = 4096 # ihtiyaca göre artırılabilir
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "OrionCAF/TurkishEducation",
max_seq_length = max_seq_length,
load_in_8bit = False, # 4-bit zaten hazır
)
FastLanguageModel.for_inference(model)
messages = [
{"role": "user",
"content": "Türkiye’de zorunlu eğitim kaç yıldır ve kademeleri nelerdir?"}
]
inputs = tokenizer.apply_chat_template(
messages, tokenize=True, add_generation_prompt=True, return_tensors="pt"
).to(device)
output = model.generate(
input_ids=inputs,
max_new_tokens=512,
temperature=0.6,
min_p=0.1,
use_cache=True,
)
print(tokenizer.decode(output[0], skip_special_tokens=True))
🧠 Model Detayları
Özellik | Değer |
---|---|
Temel Model | Qwen3-14B |
Eğitim Yöntemi | LoRA (r = 32, α = 32) |
Eğitim Verisi | Millî Eğitim Temel Kanunu, MEB yönetmelikleri, EĞİTEK & Talim‐Terbiye raporları, TBMM tutanakları, akademik makaleler, hayat boyu öğrenme strateji belgeleri (2009-2018) |
Dil Desteği | Türkçe (birincil), İngilizce (ek) |
👥 Ekibimiz
- Ferhat Kürkçüoğlu – LinkedIn
- Cengizhan Bayram – LinkedIn
- Cevdet Ahmet Turan – LinkedIn
- Volkan Altıntaş – LinkedIn
Ekip olarak eğitim, tarım ve diğer sektörler için yüksek verimli Türkçe yapay zekâ modelleri geliştiriyoruz.
⚠️ Kısıtlamalar
- Model yalnızca eğitim odaklı verilerle eğitildi; tıp, finans vb. alanlarda sınırlı bilgiye sahiptir.
- Eğitim verileri 2025 Mayıs sonuna kadardır; sonrasındaki yönetmelik değişiklikleri modele yansımamış olabilir.
- 4-bit kuantalama tam hassasiyete göre kısmen performans kaybına yol açabilir.
- Üretilen yanıtların resmî geçerliliğini kontrol etmek kullanıcının sorumluluğundadır.
📄 Lisans
Bu model Apache License 2.0 altında yayınlanmıştır. Uygun atıf yaptığınız sürece ticari kullanım dâhil serbestçe kullanabilir, değiştirebilir ve dağıtabilirsiniz.
- Downloads last month
- 3