🏛️ KamuLLM
Türkçe kamu mevzuatı + kurumsal SSS’lerden oluşan 30 k QA çiftini kullanarak fine‑tune edilen, 4‑bit ağırlıklı Llama‑3‑8B‑Instruct modeli.
🗄️ Veri Ayrıntıları
- Gerçek SSS (14 %) – kamu kurumlarının web adreslerinde yer alan sıkça sorulan sorular ve cevap verileri
- Sentetik QA (86 %) – 2021‑2025 Resmî Gazete kararname & yönetmeliklerinden Gemini 1.5 Flash ile üretilen yapay soru cevap verileri
🚀 Kullanım
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("kamullm/kamullm-v1", device_map="auto")
tok = AutoTokenizer.from_pretrained("kamullm/kamullm-v1")
prompt = "E‑devlet üzerinden ikametgâh belgesi nasıl alınır?"
inputs = tok(prompt, return_tensors="pt").to(model.device)
print(tok.decode(model.generate(**inputs, max_new_tokens=256)[0], skip_special_tokens=True))
- Downloads last month
- 30
Hardware compatibility
Log In
to view the estimation
4-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support