gemma3-1b-cpt-final-checkpoint-16000

이 모델은 파인튜닝된 언어 모델 체크포인트입니다.

모델 정보

  • 베이스 모델: gemma3-1b-cpt-final
  • 체크포인트: checkpoint-16000
  • 타입: Causal Language Model
  • 라이선스: Apache 2.0

사용 방법

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_name = "NTIS/gemma3-1b-cpt-final-checkpoint-16000"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    device_map="auto"
)

# 텍스트 생성
text = "안녕하세요"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100, do_sample=True, temperature=0.7)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)

주의사항

  • 이 모델은 연구/실험 목적으로 제공됩니다
  • 상업적 사용 전에 라이선스를 확인하세요
Downloads last month
20
Safetensors
Model size
1.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support