🏛️ KamuLLM

Türkçe kamu mevzuatı + kurumsal SSS’lerden oluşan 30 k QA çiftini kullanarak fine‑tune edilen, 4‑bit ağırlıklı Llama‑3‑8B‑Instruct modeli.

🗄️ Veri Ayrıntıları

  • Gerçek SSS (14 %) – kamu kurumlarının web adreslerinde yer alan sıkça sorulan sorular ve cevap verileri
  • Sentetik QA (86 %) – 2021‑2025 Resmî Gazete kararname & yönetmeliklerinden Gemini 1.5 Flash ile üretilen yapay soru cevap verileri

🚀 Kullanım

from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("kamullm/kamullm-v1", device_map="auto")
tok = AutoTokenizer.from_pretrained("kamullm/kamullm-v1")

prompt = "E‑devlet üzerinden ikametgâh belgesi nasıl alınır?"
inputs = tok(prompt, return_tensors="pt").to(model.device)
print(tok.decode(model.generate(**inputs, max_new_tokens=256)[0], skip_special_tokens=True))
Downloads last month
30
GGUF
Model size
8.03B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train ydmhalil/kamu-v3.1-llama-3-8b-gguf