โ›ฑ ํ•ด๋‹น ๋ชจ๋ธ์€์€ LlaMA3.2 1B๋ฅผ Foundation ๋ชจ๋ธ๋กœ ํ•˜๋Š” ํ•œ๊ตญ์–ด ๋ฐ ํ•œ๊ตญ์˜ ๋‹ค์–‘ํ•œ

๋ฌธํ™”์— ์ ์šฉํ•  ์ˆ˜ ์žˆ๋„๋ก ํ•˜๊ธฐ ์œ„ํ•ด

๊ฐœ๋ฐœ ๋˜์—ˆ์œผ๋ฉฐ ์ž์ฒด ์ œ์ž‘ํ•œ 53๊ฐœ ์˜์—ญ์˜ ํ•œ๊ตญ์–ด ๋ฐ์ดํ„ฐ๋ฅผ ํ™œ์šฉํ•˜์—ฌ ํ•œ๊ตญ ์‚ฌํšŒ ๊ฐ€์น˜์™€

๋ฌธํ™”๋ฅผ ์ดํ•ดํ•˜๋Š” ๋ชจ๋ธ ์ž…๋‹ˆ๋‹ค. Thanks for ktdsโœŒ

V0.2 Epoch=2

โถ ๋ชจ๋ธ ์„ค๋ช…

  • ๋ชจ๋ธ๋ช… ๋ฐ ์ฃผ์š”๊ธฐ๋Šฅ: ํ•ด๋‹น ๋ชจ๋ธ์€์€ LlaMA3.2 1B ๋ชจ๋ธ์„ ๊ธฐ๋ฐ˜์œผ๋กœ SFT ๋ฐฉ์‹์œผ๋กœ ํŒŒ์ธํŠœ๋‹๋œ ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค. ํ•œ๊ตญ์–ด์™€ ํ•œ๊ตญ์˜ ๋‹ค์–‘ํ•œ ๋ฌธํ™”์  ๋งฅ๋ฝ์„ ์ดํ•ดํ•˜๋„๋ก ์„ค๊ณ„๋˜์—ˆ์œผ๋ฉฐ โœจโœจ, ์ž์ฒด ์ œ์ž‘ํ•œ 53๊ฐœ ์˜์—ญ์˜ ํ•œ๊ตญ์–ด ๋ฐ์ดํ„ฐ๋ฅผ ํ™œ์šฉํ•ด ํ•œ๊ตญ ์‚ฌํšŒ์˜ ๊ฐ€์น˜์™€ ๋ฌธํ™”๋ฅผ ๋ฐ˜์˜ํ•ฉ๋‹ˆ๋‹ค. ์ฃผ์š” ๊ธฐ๋Šฅ์œผ๋กœ๋Š” ํ…์ŠคํŠธ ์ƒ์„ฑ, ๋Œ€ํ™” ์ถ”๋ก , ๋ฌธ์„œ ์š”์•ฝ, ์งˆ์˜์‘๋‹ต, ๊ฐ์ • ๋ถ„์„ ๋ฐ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๊ด€๋ จ ๋‹ค์–‘ํ•œ ์ž‘์—…์„ ์ง€์›ํ•˜๋ฉฐ, ํ™œ์šฉ ๋ถ„์•ผ๋Š” ๋ฒ•๋ฅ , ์žฌ๋ฌด, ๊ณผํ•™, ๊ต์œก, ๋น„์ฆˆ๋‹ˆ์Šค, ๋ฌธํ™” ์—ฐ๊ตฌ ๋“ฑ ๋‹ค์–‘ํ•œ ๋ถ„์•ผ์—์„œ ์‘์šฉ๋  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.
  • ๋ชจ๋ธ ์•„ํ‚คํ…์ฒ˜: ํ•ด๋‹น ๋ชจ๋ธ์€ LlaMA3.2 1B ๋ชจ๋ธ์„ ๊ธฐ๋ฐ˜์œผ๋กœ, ํŒŒ๋ผ๋ฏธํ„ฐ ์ˆ˜๋Š” 10์–ต ๊ฐœ(1B)๋กœ ๊ตฌ์„ฑ๋œ ๊ณ ์„ฑ๋Šฅ ์–ธ์–ด ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค. ์ด ๋ชจ๋ธ์€LlaMA3.2 1B๋ฅผ ํŒŒ์šด๋ฐ์ด์…˜ ๋ชจ๋ธ๋กœ ์‚ผ์•„, SFT(์ง€๋„ ๋ฏธ์„ธ ์กฐ์ •) ๋ฐฉ์‹์„ ํ†ตํ•ด ํ•œ๊ตญ์–ด์™€ ํ•œ๊ตญ ๋ฌธํ™”์— ํŠนํ™”๋œ ์„ฑ๋Šฅ์„ ๋ฐœํœ˜ํ•˜๋„๋ก ํ›ˆ๋ จ๋˜์—ˆ์Šต๋‹ˆ๋‹ค. LlaMA3.2 1B์˜ ๊ฒฝ๋Ÿ‰ํ™”๋œ ๊ตฌ์กฐ๋Š” ๋น ๋ฅธ ์ถ”๋ก  ์†๋„์™€ ๋ฉ”๋ชจ๋ฆฌ ํšจ์œจ์„ฑ์„ ๋ณด์žฅํ•˜๋ฉฐ, ๋‹ค์–‘ํ•œ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ์ž‘์—…์— ์ ํ•ฉํ•˜๊ฒŒ ์ตœ์ ํ™”๋˜์–ด ์žˆ์Šต๋‹ˆ๋‹ค. ์ด ์•„ํ‚คํ…์ฒ˜๋Š” ํ…์ŠคํŠธ ์ƒ์„ฑ, ์งˆ์˜์‘๋‹ต, ๋ฌธ์„œ ์š”์•ฝ, ๊ฐ์ • ๋ถ„์„๊ณผ ๊ฐ™์€ ๋‹ค์–‘ํ•œ ์ž‘์—…์—์„œ ํƒ์›”ํ•œ ์„ฑ๋Šฅ์„ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค.

โท ํ•™์Šต ๋ฐ์ดํ„ฐ

  • ํ•ด๋‹น ๋ชจ๋ธ์€์€ ์ž์ฒด ๊ฐœ๋ฐœํ•œ ์ด 3.6GB ํฌ๊ธฐ์˜ ๋ฐ์ดํ„ฐ๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ํ•™์Šต๋˜์—ˆ์Šต๋‹ˆ๋‹ค. ๋ชจ๋‘ 233๋งŒ ๊ฑด์˜ QnA, ์š”์•ฝ, ๋ถ„๋ฅ˜ ๋“ฑ ๋ฐ์ดํ„ฐ๋ฅผ ํฌํ•จํ•˜๋ฉฐ, ๊ทธ ์ค‘ 133๋งŒ ๊ฑด์€ 53๊ฐœ ์˜์—ญ์˜ ๊ฐ๊ด€์‹ ๋ฌธ์ œ๋กœ ๊ตฌ์„ฑ๋˜์—ˆ์Šต๋‹ˆ๋‹ค. ์ด ์˜์—ญ์—๋Š” ํ•œ๊ตญ์‚ฌ, ์‚ฌํšŒ, ์žฌ๋ฌด, ๋ฒ•๋ฅ , ์„ธ๋ฌด, ์ˆ˜ํ•™, ์ƒ๋ฌผ, ๋ฌผ๋ฆฌ, ํ™”ํ•™ ๋“ฑ์ด ํฌํ•จ๋˜๋ฉฐ, Chain of Thought ๋ฐฉ์‹์œผ๋กœ ํ•™์Šต๋˜์—ˆ์Šต๋‹ˆ๋‹ค. ๋˜ํ•œ 130๋งŒ ๊ฑด์˜ ์ฃผ๊ด€์‹ ๋ฌธ์ œ๋Š” ํ•œ๊ตญ์‚ฌ, ์žฌ๋ฌด, ๋ฒ•๋ฅ , ์„ธ๋ฌด, ์ˆ˜ํ•™ ๋“ฑ 38๊ฐœ ์˜์—ญ์— ๊ฑธ์ณ ํ•™์Šต๋˜์—ˆ์Šต๋‹ˆ๋‹ค. ํ•™์Šต ๋ฐ์ดํ„ฐ ์ค‘ ํ•œ๊ตญ์˜ ์‚ฌํšŒ ๊ฐ€์น˜์™€ ์ธ๊ฐ„์˜ ๊ฐ์ •์„ ์ดํ•ดํ•˜๊ณ  ์ง€์‹œํ•œ ์‚ฌํ•ญ์— ๋”ฐ๋ผ ์ถœ๋ ฅํ•  ์ˆ˜ ์žˆ๋Š” ๋ฐ์ดํ„ฐ๋ฅผ ํ•™์Šตํ•˜์˜€์Šต๋‹ˆ๋‹ค.
  • ํ•™์Šต Instruction Datasets Format:
    {"prompt": "prompt text", "completion": "ideal generated text"}

โธ ์‚ฌ์šฉ ์‚ฌ๋ก€

ํ•ด๋‹น ๋ชจ๋ธ์€ ๋‹ค์–‘ํ•œ ์‘์šฉ ๋ถ„์•ผ์—์„œ ์‚ฌ์šฉ๋  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด:

  • ๊ต์œก ๋ถ„์•ผ: ์—ญ์‚ฌ, ์ˆ˜ํ•™, ๊ณผํ•™ ๋“ฑ ๋‹ค์–‘ํ•œ ํ•™์Šต ์ž๋ฃŒ์— ๋Œ€ํ•œ ์งˆ์˜์‘๋‹ต ๋ฐ ์„ค๋ช… ์ƒ์„ฑ.
  • ๋น„์ฆˆ๋‹ˆ์Šค: ๋ฒ•๋ฅ , ์žฌ๋ฌด, ์„ธ๋ฌด ๊ด€๋ จ ์งˆ์˜์— ๋Œ€ํ•œ ๋‹ต๋ณ€ ์ œ๊ณต ๋ฐ ๋ฌธ์„œ ์š”์•ฝ.
  • ์—ฐ๊ตฌ ๋ฐ ๋ฌธํ™”: ํ•œ๊ตญ ์‚ฌํšŒ์™€ ๋ฌธํ™”์— ๋งž์ถ˜ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ์ž‘์—…, ๊ฐ์ • ๋ถ„์„, ๋ฌธ์„œ ์ƒ์„ฑ ๋ฐ ๋ฒˆ์—ญ.
  • ๊ณ ๊ฐ ์„œ๋น„์Šค: ์‚ฌ์šฉ์ž์™€์˜ ๋Œ€ํ™” ์ƒ์„ฑ ๋ฐ ๋งž์ถคํ˜• ์‘๋‹ต ์ œ๊ณต.
  • ์ด ๋ชจ๋ธ์€ ๋‹ค์–‘ํ•œ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ์ž‘์—…์—์„œ ๋†’์€ ํ™œ์šฉ๋„๋ฅผ ๊ฐ€์ง‘๋‹ˆ๋‹ค.

โน ํ•œ๊ณ„ โ›ˆโ›ˆ

  • ํ•ด๋‹น ๋ชจ๋ธ์€ ํ•œ๊ตญ์–ด์™€ ํ•œ๊ตญ ๋ฌธํ™”์— ํŠนํ™”๋˜์–ด ์žˆ์œผ๋‚˜, ํŠน์ • ์˜์—ญ(์˜ˆ: ์ตœ์‹  ๊ตญ์ œ ์ž๋ฃŒ, ์ „๋ฌธ ๋ถ„์•ผ)์˜ ๋ฐ์ดํ„ฐ ๋ถ€์กฑ์œผ๋กœ ์ธํ•ด ๋‹ค๋ฅธ ์–ธ์–ด ๋˜๋Š” ๋ฌธํ™”์— ๋Œ€ํ•œ ์‘๋‹ต์˜ ์ •ํ™•์„ฑ์ด ๋–จ์–ด์งˆ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ๋˜ํ•œ, ๋ณต์žกํ•œ ๋…ผ๋ฆฌ์  ์‚ฌ๊ณ ๋ฅผ ์š”๊ตฌํ•˜๋Š” ๋ฌธ์ œ์— ๋Œ€ํ•ด ์ œํ•œ๋œ ์ถ”๋ก  ๋Šฅ๋ ฅ์„ ๋ณด์ผ ์ˆ˜ ์žˆ์œผ๋ฉฐ, ํŽธํ–ฅ๋œ ๋ฐ์ดํ„ฐ๊ฐ€ ํฌํ•จ๋  ๊ฒฝ์šฐ ํŽธํ–ฅ๋œ ์‘๋‹ต์ด ์ƒ์„ฑ๋  ๊ฐ€๋Šฅ์„ฑ๋„ ์กด์žฌํ•ฉ๋‹ˆ๋‹ค.

โบ ์‚ฌ์šฉ ๋ฐฉ๋ฒ•


from transformers import AutoModel, AutoTokenizer

base_model = "SEOKDONG/llama3.2_1B_korean_v0.2_sft_by_aidx"
    
model = AutoModelForCausalLM.from_pretrained(base_LLM_model)
tokenizer = AutoTokenizer.from_pretrained(base_LLM_model)

from tqdm import tqdm
for i in tqdm(range(0,1)): #len(answer_list))):
    input_text =  """
    ๋‹น์‹ ์€ AI ๋น„์„œ์ž…๋‹ˆ๋‹ค. ๋‹ค์Œ ์งˆ๋ฌธ์— ๋งž๋Š” ๋‹ต๋ณ€์„ ๊ณ ๋ฅด์„ธ์š”. ๋‹ต๋ณ€์€ 1,2,3,4 ์ค‘์— ํ•˜๋‚˜๋งŒ ์„ ํƒํ•˜์„ธ์š”. 
    ๋‹ค์Œ ์ค‘ ํƒ„์ˆ˜ํ™”๋ฌผ์˜ ์ผ์ข…์œผ๋กœ, ํฌ๋„๋‹น์˜ ์ด์ค‘ ๊ฒฐํ•ฉ์œผ๋กœ ๊ตฌ์„ฑ๋˜์–ด ์žˆ์œผ๋ฉฐ ์ž์ฃผ ์‚ฌ์šฉ๋˜๋Š” ์„คํƒ•์˜ ์„ฑ๋ถ„์€ ๋ฌด์—‡์ธ๊ฐ€? 
    ์„ ํƒ์ง€: 1. ์…€๋ฃฐ๋กœ์˜ค์Šค 2. ์ž๋‹น 3. ๋…น๋ง 4. ๊ธ€๋ฆฌ์ฝ”๊ฒ ๋‹ต๋ณ€:"""
    
    inputs = tokenizer(input_text, return_tensors="pt")
    inputs = inputs.to("cuda:0")
    # 3. ๋ชจ๋ธ์„ ์‚ฌ์šฉํ•œ ์ถ”๋ก 
    with torch.no_grad():
        outputs = model.generate(**inputs, max_length=1024,temperature=0.1, do_sample=True, repetition_penalty=1.10)
    # 4. ๊ฒฐ๊ณผ ๋””์ฝ”๋”ฉ
    result = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(result.split("๋‹ต๋ณ€:")[1].strip())

    ๊ฒฐ๊ณผ: '2. ์ž๋‹น์ž…๋‹ˆ๋‹ค. ์ž๋‹น์€ ํฌ๋„๋‹น์ด ๋‘ ๊ฐœ์˜ ์ด์ค‘ ๊ฒฐํ•ฉ์œผ๋กœ ์ด๋ฃจ์–ด์ง„ ํ˜•ํƒœ๋กœ ์กด์žฌํ•˜๋ฉฐ, ์ฃผ๋กœ ์„คํƒ•์˜ ์ฃผ์š” ์„ฑ๋ถ„์œผ๋กœ ์‚ฌ์šฉ๋ฉ๋‹ˆ๋‹ค. 
        ์…€๋ฃฐ๋กœ์˜ค์Šค๋Š” ๋‹จ๋ฐฑ์งˆ, ๋…น๋ง์€ ์‹๋ฌผ์„ฑ ๋‹จ๋ฐฑ์งˆ, ๊ธ€๋ฆฌ์ฝ”๊ฒ์€ ์ง€๋ฐฉ๊ณผ ๊ด€๋ จ๋œ ๋‹จ๋ฐฑ์งˆ๋กœ, ๋ชจ๋‘ ์„คํƒ•์˜ ์„ฑ๋ถ„์ด ์•„๋‹™๋‹ˆ๋‹ค. ๋”ฐ๋ผ์„œ ์ •๋‹ต์€ 2์ž…๋‹ˆ๋‹ค.'
Downloads last month
933
Safetensors
Model size
1.24B params
Tensor type
F16
ยท
Inference Providers NEW
Input a message to start chatting with SEOKDONG/llama3.2_1B_korean_v0.2_sft_by_aidx.

Model tree for SEOKDONG/llama3.2_1B_korean_v0.2_sft_by_aidx

Finetuned
(498)
this model
Quantizations
2 models