gemma-2-9b-HangulFixer

  • Base Model: unsloth/gemma-2-9b-bnb-4bit
  • Developed by: SeongeonKim
  • Base Model License: Apache 2.0
  • Finetuned Model License: CC BY-NC 4.0 (๋น„์˜๋ฆฌ์  ์‚ฌ์šฉ๋งŒ ํ—ˆ์šฉ)
  • Language: Korean (ko)
  • Tags:
    • text-generation-inference
    • transformers
    • unsloth
    • gemma2
    • trl
    • sft

๋ชจ๋ธ ์„ค๋ช…

gemma-2-9b-HangulFixer๋Š” Unsloth์™€ Hugging Face์˜ TRL ๋ผ์ด๋ธŒ๋Ÿฌ๋ฆฌ๋ฅผ ์‚ฌ์šฉํ•ด fine-tuningํ•œ ํ…์ŠคํŠธ ์ƒ์„ฑ ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.
์ด ๋ชจ๋ธ์€ ๋‚œ๋…ํ™”๋œ ํ•œ๊ธ€ ํ˜ธํ…” ๋ฆฌ๋ทฐ๋ฅผ ์›๋ž˜์˜ ๋ช…ํ™•ํ•˜๊ณ  ์ž์—ฐ์Šค๋Ÿฌ์šด ๋ฆฌ๋ทฐ๋กœ ๋ณต์›ํ•˜๊ธฐ ์œ„ํ•ด ์„ค๊ณ„๋˜์—ˆ์Šต๋‹ˆ๋‹ค.


๋ฐ์ดํ„ฐ ๋ฐฐ๊ฒฝ

ํ•œ๊ตญ ์ˆ™์†Œ ์˜ˆ์•ฝ ์‚ฌ์ดํŠธ์—์„œ๋Š” ๋ถ€์ •์ ์ธ ๋ฆฌ๋ทฐ๊ฐ€ ์‚ญ์ œ๋  ์ˆ˜ ์žˆ๋Š” ์šฐ๋ ค๊ฐ€ ์žˆ์Šต๋‹ˆ๋‹ค. ์ด๋ฅผ ํ”ผํ•˜๋ฉด์„œ ํ•œ๊ตญ ์‚ฌ์šฉ์ž๋“ค์—๊ฒŒ๋งŒ ์œ ์šฉํ•œ ์ •๋ณด๋ฅผ ์ „๋‹ฌํ•˜๊ธฐ ์œ„ํ•ด ์ผ๋ถ€ ์‚ฌ์šฉ์ž๋“ค์€ ๋ฆฌ๋ทฐ๋ฅผ ๋‚œ๋…ํ™”ํ•˜๋Š” ๋ฐฉ์‹์„ ์‚ฌ์šฉํ•ด ์†”์งํ•œ ํ›„๊ธฐ๋ฅผ ๋‚จ๊ธฐ๊ณ ์ž ํ•ฉ๋‹ˆ๋‹ค.
์ด ๋ฐฉ์‹์€ ํ•œ๊ตญ ์‚ฌ์šฉ์ž๋“ค์—๊ฒŒ๋Š” ์†”์งํ•œ ์ •๋ณด๋ฅผ ์ œ๊ณตํ•˜๋Š” ์žฅ์ ์ด ์žˆ์ง€๋งŒ, ์ˆ™์†Œ ์šด์˜์ž์™€ ๋ฐฉ๋ฌธ๊ฐ ๊ฐ„ ํ”ผ๋“œ๋ฐฑ ์ „๋‹ฌ์„ ์–ด๋ ต๊ฒŒ ๋งŒ๋“ค์–ด ์„œ๋น„์Šค ํ’ˆ์งˆ ํ–ฅ์ƒ์— ์žฅ์• ๊ฐ€ ๋  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.


ํ•™์Šต ๋ฐ์ดํ„ฐ

์ด ๋ชจ๋ธ์€ SeongeonKim/ko-scrambled_v0.1 ๋ฐ์ดํ„ฐ์…‹์˜ ํ•™์Šต ๋ฐ์ดํ„ฐ๋ฅผ ์‚ฌ์šฉํ•ด ํ•™์Šต๋˜์—ˆ์Šต๋‹ˆ๋‹ค.
์ด 11,263๊ฐœ์˜ ๋‚œ๋…ํ™”๋œ ํ•œ๊ธ€ ํ˜ธํ…” ๋ฆฌ๋ทฐ์™€ ๊ทธ์— ์ƒ์‘ํ•˜๋Š” ๋ณต์›๋œ ์›๋ณธ ๋ฆฌ๋ทฐ๋ฅผ ์‚ฌ์šฉํ•ด fine-tuning์ด ์ง„ํ–‰๋˜์—ˆ์Šต๋‹ˆ๋‹ค.
์ด ๋ฐ์ดํ„ฐ์…‹์€ ๋ฆฌ๋ทฐ์˜ ๋‚œ๋…ํ™”๋œ ํ˜•ํƒœ(input)์™€ ๋ณต์›๋œ ํ˜•ํƒœ(output)๋กœ ๊ตฌ์„ฑ๋˜์–ด ์žˆ์Šต๋‹ˆ๋‹ค.

์˜ˆ์ œ ๋ฐ์ดํ„ฐ:

  • Input: ์‰ญ๋”ฑ ์œ• ํ„บ๋ ค์œค ๊ตผ๋ฉ•์›จ ๋ท”ํ–… ์™„์ฉ ๋ณ„๋ฃŒ. 2๋นก 3์œŒ์—ฃ 88๋งŽ ์–ธ ์ผค์ณ…ํ–‡๋ˆˆ๋Žจ, ์ธ™์ ผ๊ท“๋ด ์—ฝ์…”์จ 1์ถฉ๊นฅ์ฅ ๋ทœ๋ฆด๋Ÿด ์ฐ์ก‰ ๋‚ผ๋ ฅ์นด์จ ์ฉํ™ฉ๋ณ€ํšจ, ์œ•๋ฃธ, ์‹ผ์ธ๊น”์ฐŒ ํ–„์•ˆ ๋ทœ๋ ค์ฅผ. ํšจํ…”์šน ์™ ์˜จ๋ƒ? ์…ฅํ•์Šฅ ์ข‹์ฝฅ ์‹ฏ์…œ ์ดˆํ•ซ์…˜ ์˜ฅ๋Š” ๊บผ์ฎœ. ๋‚ต๊ฐ” ์…ธํ”Œ๋กญ ๋„ฌ๋ ฅ๊ฐ‰ ๊ฒธ๋ฉด ํ™…๋—„์šบ ์›ธ ์š˜๋‚š? ๋ฅจ ๊ป€ํŒƒ์…˜ํ†ฑ ์†”์‘ˆ. ๋นต์ฝ ๊ตถ๋ ‡๊ป˜ ๊นจ๊ฟ‹ํ•™์ปจ๋‚ข ์”ฝ๋„ํƒœ๋ƒ ๋ฐŸํƒ ๋“ฑ๋‘ฅ ๋”ฑํž™ ์ฉก๊ฑบํ•œ ๋ˆ…ํ‚ด์žˆ ์—Ž์”€. ์œŒํŒ ๋ฌ˜๋—„๋ฝ€๋Œœ ๋ชปํ•œ ํ‹‹? ๋ˆ ์•…์บฌ์œค ํšจํ…”๋ฅธ ์–ต๊ธฑ๊ฐ” ์ช„์šบ๋ฎŒ ๋œป. ๋ˆ ๊ฐ’์„ญ์ฐœ ๋ฌซํ•œ๋ˆˆ ๊ตฃ. ํ†ต๋Œ€๋ฎจ ์ด‰ ์™ํ†  ๋‹ซ์‰ฐ๋Š” ์—ฟ๊ธธ ์•‰ ๋ฉˆ๋ฎฌ ๋œฏ. ์žƒํ•ฅ๋Š” ์Œ€๋žŒ๋‘˜ํ•œํ‰ค ์‘ค์ฝ”ํ• ๋ฝ์ฝ” ์œˆ์‹ธํ•ด๋› ๋•Ÿ๊ฟ€๋˜ฅ ์–€ ํ•จ. ์–ด๊ธด ๋ญ ํ•œ๋Š” ๊ต์”ฌ์ฅใ…‹ใ…‹. ๋นต์—ฅ ํ™”์งฑํƒœ๋˜ ์—†์ˆจ. ์–€๋‹˜ ํ™ง์ฑต๋Œ‘ํˆ ์—พ๋ˆˆ ํ˜ธ๋—„์žƒ ์žˆ๋‚ก์˜ป? ์ปค์‹ค ๋”ฑ์ฑ ์— ๋†“๊ณง ํ™”์ฐฝํ•จ ๊นจ๋ถ‰ํŽธ. ํ™ฉ์งฑ์”ฐ ๋ณ€๋€Œ์—ฃ์„ง ์งˆ๋ฆฐ๋„ฅ ๋ƒ  ๋Ÿ๋Ÿฝ๋– ๋Ÿฝ. ๋„ด์Ž„ ๋‚ซ์จ ํ™œ์งฑ์‹ซ ์‘ฌ ๋–ผ๋งžํƒ€ ์งฏ์ธต. ์–ธ๋นก์œ„๋ž’ ์š์ถœํ•จ๋ฉด์„  ๋ƒ„์Ž„๋‚š๋‰˜ ์บ”์ฟณํ–๊ถค ์ฒญ์†Žํ–‡ ํƒ‰๋žด ํ–‡๋ˆˆ๋’ˆ ์ฉก์‡ผ๋Š” ์ฑจ๋’ˆ์˜€์ฅ๋งŒ ๋ƒ„์„„๋ˆˆ ๊ฑ”์™ ๋‚ข. ๋ฐฉ๊ฝ‰ ๊ฒ‰์”ฐ ํŒŒํƒ๋ด ์ทธ์นจํ–๊ต ์ฉก์‡ฝ๊นŒ ์ฒด๋ฐ๋กญ ์–€ ํ‡ด์—ฌ ์žŠ๋Š” ๋ˆ…๋€œ์žƒ์—Š๋ˆˆ๋— ๋ŽŒ๋ ต๋”ฑ๊ณฐ ๋จˆํ•™๊ณฏ ์™œ์ธŒํ•™๊ผฒ ์šฅ๋‰˜ ์ž˜ ๋‹ฆ์•˜๋‚ฎ. ๋ฐ›ํƒ€๋ผ ๋พฐ์ˆ‘ํ–‡์›€. ์ณค๋ƒ๋ฅธ ์ณ…ํƒค๋ฃŒ ์ฉก์‘ˆ ์•Šํ•œ ๊ฒ† ๋ง์ฏค. ์œŒ ํšจํ…”, ๋ด๋Šš ์ ธ์ ธ๋ป˜๋ฅ€๋ˆˆ ๋œป. ์น˜๊ตผ ์„•๊ฐน์ผ€๋ด ๋˜ ํ†ค ์•…๊น๋ˆผ. ํ›™, ํƒ“์”ฌ ์•‰ ๊ฐŠ. ๊ฝ์ง ๋ฃŒ ์ฐจ๋ž–๊ณฌ ํ–ˆ๋Ž ์–€ ๊ฐŠ.
  • Output: ์‹ํƒ ์œ„ ๋”๋Ÿฌ์šด ๊ธˆ์•ก์— ๋น„ํ•ด ์™„์ „ ๋ณ„๋กœ. 2๋ฐ• 3์ผ์— 88๋งŒ ์› ๊ฒฐ์ œํ–ˆ๋Š”๋ฐ, ์ถฉ์ „๊ธฐ๋„ ์—†์–ด์„œ 1์ธต๊นŒ์ง€ ๋นŒ๋ฆฌ๋Ÿฌ ์ง์ ‘ ๋‚ด๋ ค๊ฐ€์„œ ์ „ํ™”๋ฒˆํ˜ธ, ์ด๋ฆ„, ์‹ธ์ธ๊นŒ์ง€ ํ•ด์•ผ ๋นŒ๋ ค์คŒ. ํ˜ธํ…”์„ ์™œ ์˜ค๋‚˜? ์„œ๋น„์Šค ์ข‹๊ณ  ์‹œ์„ค ์ข‹์•„์„œ ์˜ค๋Š” ๊ฑฐ์ง€. ๋‚ด๊ฐ€ ์…€ํ”„๋กœ ๋‚ด๋ ค๊ฐˆ ๊ฑฐ๋ฉด ํ˜ธํ…”์„ ์™œ ์˜ค๋‚˜? ๋ฃธ ์ปจ๋””์…˜๋„ ์˜์˜. ๋ฐฉ์ด ๊ทธ๋ ‡๊ฒŒ ๊นจ๋—ํ•˜๊ฑฐ๋‚˜ ์‹ฑํฌ๋Œ€๋‚˜ ๋ฐ”๋‹ฅ ๋“ฑ๋“ฑ ๋”ฑํžˆ ์ฒญ๊ฒฐํ•œ ๋Š๋‚Œ์ด ์—†์Œ. ์ผ๋ฐ˜ ๋ชจํ…”๋ณด๋‹ค ๋ชปํ•œ ๋“ฏ? ๋ˆ ์•„๊นŒ์šด ํ˜ธํ…”์€ ์—ฌ๊ธฐ๊ฐ€ ์ฒ˜์Œ์ธ ๋“ฏ. ๋ˆ ๊ฐ’์–ด์น˜ ๋ชปํ•˜๋Š” ๊ณณ. ๋™๋Œ€๋ฌธ ์ชฝ ์™€๋„ ๋‹ค์‹œ๋Š” ์—ฌ๊ธฐ ์•ˆ ๋จธ๋ฌผ ๋“ฏ. ์ผํ•˜๋Š” ์‚ฌ๋žŒ๋“คํ•œํ…Œ ์ˆ˜๊ณ ํ•˜๋ผ๊ณ  ์ธ์‚ฌํ•ด๋„ ๋Œ€๊พธ๋„ ์•ˆ ํ•จ. ์—ฌ๊ธด ๋ญ ํ•˜๋Š” ๊ณณ์ธ์ง€ใ…‹ใ…‹. ๋ฐฉ์— ํ™”์žฅ๋Œ€๋„ ์—†์Œ. ์•„๋‹ˆ ํ™”์žฅ๋Œ€๋„ ์—†๋Š” ํ˜ธํ…”์ด ์žˆ๋‚˜์š”? ๊ฑฐ์‹ค ํƒ์ž์— ๋†“๊ณ  ํ™”์žฅํ•จ ๊ฐœ๋ถˆํŽธ. ํ™”์žฅ์‹ค ๋ณ€๊ธฐ์—์„œ ์ง€๋ฆฐ๋‚ด ๋‚จ ๋”๋Ÿฝ๋”๋Ÿฝ. ๋ƒ„์ƒˆ ๋‚˜์„œ ํ™”์žฅ์‹ค ์“ธ ๋•Œ๋งˆ๋‹ค ์งœ์ฆ. ์—ฐ๋ฐ•์ด๋ผ ์™ธ์ถœํ•˜๋ฉด์„œ ๋ƒ„์ƒˆ๋‚˜๋‹ˆ ๊นจ๋—ํ•˜๊ฒŒ ์ฒญ์†Œํ•ด ๋‹ฌ๋ผ ํ–ˆ๋Š”๋ฐ ์ฒญ์†Œ๋Š” ์ž˜๋˜์—ˆ์ง€๋งŒ ๋ƒ„์ƒˆ๋Š” ๊ณ„์† ๋‚จ. ๋ฐฉ๊ณผ ๊ฑฐ์‹ค ๋ฐ”๋‹ฅ๋„ ์ฐœ์ฐœํ•˜๊ณ  ์ฒญ์†Œ๊ฐ€ ์ œ๋Œ€๋กœ ์•ˆ ๋˜์–ด ์žˆ๋Š” ๋Š๋‚Œ์ด์—ˆ๋Š”๋ฐ ๋”๋Ÿฝ๋‹ค๊ณ  ๋งํ•˜๊ณ  ์™ธ์ถœํ•˜๊ณ  ์˜ค๋‹ˆ ์ž˜ ๋‹ฆ์•˜๋‚˜. ๋ฐ”๋‹ฅ์ด ๋ฝ€์†กํ–ˆ์Œ. ์ฒซ๋‚ ์€ ์ œ๋Œ€๋กœ ์ฒญ์†Œ ์•ˆํ•œ ๊ฑฐ ๋งž์Œ. ์ด ํ˜ธํ…”, ๋ˆ์„ ์ €์ €๋ฒ„๋ฆฌ๋Š” ๋“ฏ. ์ง€๊ธˆ ์ƒ๊ฐํ•ด๋„ ๋˜ ๋ˆ ์•„๊น๋„ค. ํฅ, ๋‹ค์‹  ์•ˆ ๊ฐ. ๊ณต์งœ๋กœ ์ž๋ผ๊ณ  ํ•ด๋„ ์•ˆ ๊ฐ.

๋ชจ๋ธ ์„ฑ๋Šฅ

  • Base Model: unsloth/gemma-2-9b-bnb-4bit๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ ํ•™์Šต๋˜์—ˆ์Šต๋‹ˆ๋‹ค.
  • Training Efficiency: Unsloth๋ฅผ ์‚ฌ์šฉํ•ด 2๋ฐฐ ๋” ๋น ๋ฅธ ์†๋„๋กœ ํ•™์Šต ์™„๋ฃŒ.
  • Target Task: ํ…์ŠคํŠธ ๋ณต์›
  • Language: ํ•œ๊ธ€

์‚ฌ์šฉ ๋ฐฉ๋ฒ•

์•„๋ž˜๋Š” ๋ชจ๋ธ์„ ์‚ฌ์šฉํ•˜๋Š” ๊ธฐ๋ณธ์ ์ธ ์˜ˆ์ œ์ž…๋‹ˆ๋‹ค:

from transformers import AutoModelForCausalLM, AutoTokenizer

# ๋ชจ๋ธ ๋กœ๋“œ
model_name = "SeongeonKim/gemma-2-9b-HangulFixer"
model = AutoModelForCausalLM.from_pretrained(model_name).to("cuda")
tokenizer = AutoTokenizer.from_pretrained(model_name)

# ํ…Œ์ŠคํŠธ ์ž…๋ ฅ
input_text = "๋…€๋ฎจ๋„’๋ญ… ๋งŒ์ฃก์ˆญ๋Ÿฌ์œค ํšจํ…œ๋คผ์—์˜ค. ํ‘ธ์‹ธ๋ˆผ ์˜ฐ๋ฉด ์ฝ• ์ธ„์ฉํ•™๊ผฌ ์‹ถ์€ ์ฝง์‰ฐ์›จ์˜ค."
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=128)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

์ƒ์—…์  ์ด์šฉ ๊ด€๋ จ ์ œํ•œ ์‚ฌํ•ญ

์ด ๋ชจ๋ธ์€ ํ•™์Šต ๋ฐ์ดํ„ฐ์˜ ๋ผ์ด์„ ์Šค์— ๋”ฐ๋ผ CC BY-NC 4.0 ๋ผ์ด์„ ์Šค๋ฅผ ๋”ฐ๋ฆ…๋‹ˆ๋‹ค.
์ด ๋ผ์ด์„ ์Šค๋Š” ๋น„์˜๋ฆฌ์  ์‚ฌ์šฉ๋งŒ ํ—ˆ์šฉํ•˜๋ฉฐ, ์ƒ์—…์  ์šฉ๋„๋กœ ์‚ฌ์šฉํ•˜๋ ค๋ฉด ๋ณ„๋„์˜ ํ—ˆ๊ฐ€๊ฐ€ ํ•„์š”ํ•ฉ๋‹ˆ๋‹ค.
๋ฐ์ดํ„ฐ๋ฅผ ์ด์šฉํ•˜๋Š” ๊ฒฝ์šฐ, ์—ฐ๊ตฌ ๋ชฉ์ ์œผ๋กœ ์‚ฌ์šฉํ•˜๊ฑฐ๋‚˜ ํ•™์Šต ๋ฐ์ดํ„ฐ์˜ ์ถœ์ฒ˜์™€ ๋ผ์ด์„ ์Šค๋ฅผ ๋ช…ํ™•ํžˆ ํ‘œ๊ธฐํ•ด์•ผ ํ•ฉ๋‹ˆ๋‹ค.

  • ๋ผ์ด์„ ์Šค ์„ธ๋ถ€์‚ฌํ•ญ: CC BY-NC 4.0

๋ชจ๋ธ ๊ฐœ๋ฐœ ๊ด€๋ จ ์ฐธ๊ณ  ์‚ฌํ•ญ

  • ์‚ฌ์šฉ๋œ ๊ธฐ์ˆ : Unsloth์™€ Hugging Face์˜ TRL(SFT) ์‚ฌ์šฉ
  • ๋ฐ์ดํ„ฐ ์ถœ์ฒ˜: SeongeonKim/ko-scrambled_v0.1 ๋ฐ์ดํ„ฐ์…‹
  • ์‚ฌ์šฉ ์ œํ•œ: ๋ฐ์ดํ„ฐ์˜ ๋ผ์ด์„ ์Šค๋ฅผ ์ค€์ˆ˜ํ•˜๋ฉฐ, ์ƒ์—…์  ์šฉ๋„๋กœ ์‚ฌ์šฉ ๋ถˆ๊ฐ€

This gemma2 model was trained 2x faster with Unsloth and Huggingface's TRL library.

Downloads last month
41
Safetensors
Model size
9.24B params
Tensor type
BF16
ยท
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for SeongeonKim/gemma-2-9b-HangulFixer_v0.0

Base model

google/gemma-2-9b
Finetuned
(339)
this model
Quantizations
1 model