--- license: apache-2.0 language: - ko - en tags: - text-generation - pytorch - causal-lm library_name: transformers --- # gemma3-1b-cpt-final-checkpoint-11000 이 모델은 파인튜닝된 언어 모델 체크포인트입니다. ## 모델 정보 - **베이스 모델**: gemma3-1b-cpt-final - **체크포인트**: checkpoint-11000 - **타입**: Causal Language Model - **라이선스**: Apache 2.0 ## 사용 방법 ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name = "NTIS/gemma3-1b-cpt-final-checkpoint-11000" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, device_map="auto" ) # 텍스트 생성 text = "안녕하세요" inputs = tokenizer(text, return_tensors="pt") outputs = model.generate(**inputs, max_length=100, do_sample=True, temperature=0.7) result = tokenizer.decode(outputs[0], skip_special_tokens=True) print(result) ``` ## 주의사항 - 이 모델은 연구/실험 목적으로 제공됩니다 - 상업적 사용 전에 라이선스를 확인하세요