Llama-3.1-SISaAI-Ko-merge-8B-Instruct

This is a merge of pre-trained language models distilled DeepSeek-R1.

Subscribe my youtube channel -------> μ‹œμ‚¬AI

"Performance Disclaimer: This merged model has not undergone comprehensive validation testing. As such, its actual performance characteristics remain unverified. I strongly encourage users to conduct thorough evaluations in their specific application contexts before considering production deployment."

Merge Details

A hybrid model optimized for Korean NLP and code/math reasoning, created by merging specialized models using DARE-TIES method on Meta-Llama-3.1-8B-Instruct base.

Merge Method

This model was merged using the DARE TIES merge method using NousResearch/Meta-Llama-3.1-8B-Instruct as a base.

Models Merged

The following models were included in the merge:

Configuration

The following YAML configuration was used to produce this model:


base_model: NousResearch/Meta-Llama-3.1-8B-Instruct
merge_method: dare_ties

models:
  - model: "deepseek-ai/DeepSeek-R1-Distill-Llama-8B"
    parameters:
      density: 0.55   # 45% params dropped β†’ 2.22x scaling
      weight: 0.35    # 35% final contribution

  - model: "sh2orc/Llama-3.1-Korean-8B-Instruct"
    parameters:
      density: 0.75   # 25% params dropped β†’ 1.33x scaling
      weight: 0.65    # 65% final contribution

tokenizer_source: "sh2orc/Llama-3.1-Korean-8B-Instruct"
dtype: bfloat16       # Memory optimization
int8_mask: true       # 30% KV cache reduction

Test (MAC M1 MPS)


from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
import warnings

warnings.filterwarnings("ignore")

device = torch.device("mps")

model = AutoModelForCausalLM.from_pretrained(
    "./Llama-3.1-SISaAI-Ko-merge-8B-Instruct",
    torch_dtype=torch.float16,
    device_map="auto",
    low_cpu_mem_usage=True
).to(device).eval()

tokenizer = AutoTokenizer.from_pretrained("./Llama-3.1-SISaAI-Ko-merge-8B-Instruct")
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "left"

tests = [
    {"prompt": "ν•œκ΅­μ–΄μ™€ μˆ˜ν•™μ„ κ²°ν•©ν•œ AI의 μž₯점은?", "max_tokens": 500},
    {"prompt": "파이썬으둜 κ°„λ‹¨ν•œ 계산기 클래슀λ₯Ό λ§Œλ“€κ³  μ„€λͺ…ν•΄μ€˜", "max_tokens": 800}
]

for test in tests:
    inputs = tokenizer(
        test["prompt"],
        return_tensors="pt",
        padding=True,
        truncation=True,
        max_length=512
    ).to(device)
    
    outputs = model.generate(
        **inputs,
        max_length=1024,
        max_new_tokens=test["max_tokens"],
        temperature=0.7,
        top_p=0.9,
        do_sample=True,
        eos_token_id=tokenizer.eos_token_id,
        pad_token_id=tokenizer.eos_token_id,
        early_stopping=True,
        num_return_sequences=1
    )
    
    print(f"\n[μž…λ ₯] {test['prompt']}")
    print(f"[좜λ ₯]\n{tokenizer.decode(outputs[0], skip_special_tokens=True)}")
    print("-"*50)


[μž…λ ₯] ν•œκ΅­μ–΄μ™€ μˆ˜ν•™μ„ κ²°ν•©ν•œ AI의 μž₯점은?

[좜λ ₯]
ν•œκ΅­μ–΄μ™€ μˆ˜ν•™μ„ κ²°ν•©ν•œ AI의 μž₯점은? [1]
ν•œκ΅­μ–΄μ™€ μˆ˜ν•™μ„ κ²°ν•©ν•œ AIλŠ” ν•œκ΅­μ–΄λ₯Ό μ΄ν•΄ν•˜κ³  μˆ˜ν•™μ  계산을 μˆ˜ν–‰ν•  수 μžˆλŠ” AIμž…λ‹ˆλ‹€. 이 AIλŠ” λ‹€μ–‘ν•œ λΆ„μ•Όμ—μ„œ μ‚¬μš©λ  수 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, μˆ˜ν•™ 문제λ₯Ό ν•΄κ²°ν•˜λŠ” AI, μžμ—°μ–΄ 처리(AI)κ°€ μˆ˜ν•™ 문제λ₯Ό ν•΄κ²°ν•˜λŠ” AI, λ˜λŠ” ν•œκ΅­μ–΄λ‘œ 된 μˆ˜ν•™ ꡐ재λ₯Ό μžλ™μœΌλ‘œ λ²ˆμ—­ν•˜λŠ” AIμž…λ‹ˆλ‹€. 이 AIλŠ” μˆ˜ν•™μ  계산 λŠ₯λ ₯κ³Ό ν•œκ΅­μ–΄η†θ§£ λŠ₯λ ₯을 λͺ¨λ‘ κ°–μΆ”κ³  μžˆμ–΄, 더 λ‚˜μ€ μ„±λŠ₯κ³Ό μœ μš©μ„±μ„ μ œκ³΅ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

ν•œκ΅­μ–΄μ™€ μˆ˜ν•™μ„ κ²°ν•©ν•œ AIλŠ” μˆ˜ν•™μ  계산을 μˆ˜ν–‰ν•˜λŠ” 데 ν•œκ΅­μ–΄λ₯Ό μ΄ν•΄ν•˜λŠ” λŠ₯λ ₯을 κ²°ν•©ν•œ AIμž…λ‹ˆλ‹€. λ”°λΌμ„œ 이 AIλŠ” μˆ˜ν•™μ  계산을 μˆ˜ν–‰ν•  λ•Œ, ν•œκ΅­μ–΄λ‘œ 된 λ¬Έμž₯μ΄λ‚˜ λͺ…령을 μ΄ν•΄ν•˜κ³  μˆ˜ν–‰ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, "2+3=5"이라고 λ§ν•˜λ©΄ AIλŠ” 2+3=5λ₯Ό 계산할 수 μžˆμŠ΅λ‹ˆλ‹€. λ˜ν•œ, "μ‚Όκ°ν˜•μ˜ 넓이λ₯Ό κ΅¬ν•˜λΌ"라고 λ§ν•˜λ©΄ AIλŠ” μ‚Όκ°ν˜•μ˜ 넓이 계산을 μˆ˜ν–‰ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

이 AIλŠ” μˆ˜ν•™μ  계산을 μˆ˜ν–‰ν•˜λŠ” 데 ν•œκ΅­μ–΄λ₯Ό μ΄ν•΄ν•˜λŠ” λŠ₯λ ₯을 κ²°ν•©ν•œ AI둜, λ‹€μ–‘ν•œ λΆ„μ•Όμ—μ„œ μ‚¬μš©λ  수 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, μˆ˜ν•™ 문제λ₯Ό ν•΄κ²°ν•˜λŠ” AI, μžμ—°μ–΄ 처리(AI)κ°€ μˆ˜ν•™ 문제λ₯Ό ν•΄κ²°ν•˜λŠ” AI, λ˜λŠ” ν•œκ΅­μ–΄λ‘œ 된 μˆ˜ν•™ ꡐ재λ₯Ό μžλ™μœΌλ‘œ λ²ˆμ—­ν•˜λŠ” AIμž…λ‹ˆλ‹€. 이 AIλŠ” μˆ˜ν•™μ  계산 λŠ₯λ ₯κ³Ό ν•œκ΅­μ–΄η†θ§£ λŠ₯λ ₯을 λͺ¨λ‘ κ°–μΆ”κ³  μžˆμ–΄, 더 λ‚˜μ€ μ„±λŠ₯κ³Ό μœ μš©μ„±μ„ μ œκ³΅ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

ν•œκ΅­μ–΄μ™€ μˆ˜ν•™μ„ κ²°ν•©ν•œ AI의 μž₯점은?

1. μˆ˜ν•™μ  계산 λŠ₯λ ₯κ³Ό ν•œκ΅­μ–΄ 이해 λŠ₯λ ₯을 λͺ¨λ‘ κ°–μΆ”κ³  μžˆμŠ΅λ‹ˆλ‹€.
2. λ‹€μ–‘ν•œ λΆ„μ•Όμ—μ„œ μ‚¬μš©λ  수 μžˆμŠ΅λ‹ˆλ‹€.
3. μˆ˜ν•™μ  계산을 μˆ˜ν–‰ν•˜λŠ” 데 ν•œκ΅­μ–΄λ₯Ό μ΄ν•΄ν•˜λŠ” λŠ₯λ ₯을 κ²°ν•©ν•œ AI둜, 더 λ‚˜μ€ μ„±λŠ₯κ³Ό μœ μš©μ„±μ„ μ œκ³΅ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
4. μˆ˜ν•™ ꡐ재λ₯Ό μžλ™μœΌλ‘œ λ²ˆμ—­ν•˜λŠ” AI둜, μˆ˜ν•™ ꡐ재λ₯Ό λ²ˆμ—­ν•˜λŠ” 데 μ‚¬μš©λ  수 μžˆμŠ΅λ‹ˆλ‹€.
5. μžμ—°μ–΄ 처리(AI)κ°€ μˆ˜ν•™ 문제λ₯Ό ν•΄κ²°ν•˜λŠ” AI둜, μˆ˜ν•™ 문제
--------------------------------------------------
Both `max_new_tokens` (=800) and `max_length`(=1024) seem to have been set. `max_new_tokens` will take precedence. Please refer to the documentation for more information. (https://huggingface.co/docs/transformers/main/en/main_classes/text_generation)

[μž…λ ₯] 파이썬으둜 κ°„λ‹¨ν•œ 계산기 클래슀λ₯Ό λ§Œλ“€κ³  μ„€λͺ…ν•΄μ€˜

[좜λ ₯]
파이썬으둜 κ°„λ‹¨ν•œ 계산기 클래슀λ₯Ό λ§Œλ“€κ³  μ„€λͺ…ν•΄μ€˜

계산기 클래슀λ₯Ό λ§Œλ“€κΈ° μœ„ν•΄, 클래슀의 μΈμŠ€ν„΄μŠ€ λ³€μˆ˜μ™€ λ©”μ†Œλ“œλ₯Ό μ •μ˜ν•΄μ•Ό ν•œλ‹€. μΈμŠ€ν„΄μŠ€ λ³€μˆ˜λŠ” screen, first_num, operator, second_num이 될 수 μžˆλ‹€. λ©”μ†Œλ“œλŠ” clear, append_num, change_operator, calculate, all_clear 등이 μžˆλ‹€.

```python
class Calculator:
    def __init__(self):
        self.screen = ""
        self.first_num = None
        self.operator = None
        self.second_num = None

    def clear(self):
        self.screen = ""
        self.first_num = None
        self.operator = None
        self.second_num = None

    def append_num(self, num):
        self.screen += str(num)

    def change_operator(self, op):
        self.operator = op

    def calculate(self):
        if self.operator == '+':
            return self.first_num + self.second_num
        elif self.operator == '-':
            return self.first_num - self.second_num
        elif self.operator == '*':
            return self.first_num * self.second_num
        elif self.operator == '/':
            if self.second_num!= 0:
                return self.first_num / self.second_num
            else:
                return "Error: Division by zero"
        else:
            return "Error: Invalid operator"

    def all_clear(self):
        self.screen = ""
        self.first_num = None
        self.operator = None
        self.second_num = None

이 ν΄λž˜μŠ€λŠ” 계산기와 μœ μ‚¬ν•œ κΈ°λŠ₯을 μ œκ³΅ν•œλ‹€. clear() λ©”μ†Œλ“œλŠ” μŠ€ν¬λ¦°μ„ μ΄ˆκΈ°ν™”ν•˜κ³ , append_num() λ©”μ†Œλ“œλŠ” μŠ€ν¬λ¦°μ— 숫자λ₯Ό μΆ”κ°€ν•œλ‹€. change_operator() λ©”μ†Œλ“œλŠ” 기쑴의 μ—°μ‚°μžλ₯Ό λ³€κ²½ν•œλ‹€. calculate() λ©”μ†Œλ“œλŠ” μŠ€ν¬λ¦°μ— μžˆλŠ” 숫자λ₯Ό 읽어듀여 연산을 μˆ˜ν–‰ν•œλ‹€. all_clear() λ©”μ†Œλ“œλŠ” λͺ¨λ“  λ³€μˆ˜λ₯Ό μ΄ˆκΈ°ν™”ν•œλ‹€.

계산기 클래슀λ₯Ό μ‚¬μš©ν•˜λ €λ©΄, Calculator() ν•¨μˆ˜λ₯Ό ν˜ΈμΆœν•˜κ³  계산기λ₯Ό μ‚¬μš©ν•˜λŠ” λ©”μ†Œλ“œλ₯Ό ν˜ΈμΆœν•˜λ©΄ λœλ‹€. 예λ₯Ό λ“€μ–΄, Calculator().append_num(5)둜 5λ₯Ό μŠ€ν¬λ¦°μ— μΆ”κ°€ν•˜κ³  Calculator().change_operator('+')둜 '+' μ—°μ‚°μžλ₯Ό λ³€κ²½ν•  수 μžˆλ‹€. Calculator().calculate()둜 κ²°κ³Όλ₯Ό 계산할 수 μžˆλ‹€.

calc = Calculator()
calc.append_num(5)
calc.change_operator('+')
calc.append_num(3)
print(calc.calculate())  # 8
calc.all_clear()
print(calc.screen)  # ""

이 ν΄λž˜μŠ€λŠ” κ°„λ‹¨ν•œ 계산기와 μœ μ‚¬ν•œ κΈ°λŠ₯을 μ œκ³΅ν•˜μ§€λ§Œ, 더 λ³΅μž‘ν•œ 계산기 κΈ°λŠ₯을 μΆ”κ°€ν•˜λ €λ©΄ 클래슀λ₯Ό ν™•μž₯ν•΄μ•Ό ν•  수 μžˆλ‹€. 예λ₯Ό λ“€μ–΄, 더 λ§Žμ€ μ—°μ‚°μžλ₯Ό μ§€μ›ν•˜κ±°λ‚˜, μŠ€ν¬λ¦°μ— 더 λ§Žμ€ 숫자λ₯Ό ν‘œμ‹œν•˜κ±°λ‚˜, 계산 κ²°κ³Όλ₯Ό μ €μž₯ν•˜κ³  싢을 수 μžˆλ‹€. 이에 λŒ€ν•œ ν™•μž₯은 클래슀λ₯Ό μˆ˜μ •ν•˜κ³  더 λ§Žμ€ λ©”μ†Œλ“œλ₯Ό μΆ”κ°€ν•˜λŠ” λ°©μ‹μœΌλ‘œ 진행할 수 μžˆλ‹€. `

μ„€λͺ…

계산기 클래슀λ₯Ό λ§Œλ“€κΈ° μœ„ν•΄, 클래슀의 μΈμŠ€ν„΄μŠ€ λ³€μˆ˜μ™€ λ©”μ†Œλ“œλ₯Ό μ •μ˜ν•΄μ•Ό ν•œλ‹€. μΈμŠ€ν„΄μŠ€ λ³€μˆ˜λŠ” 슀크린, 첫 번째 숫자, μ—°μ‚°μž, 두 번째 숫자이 될 수 μžˆλ‹€. λ©”μ†Œλ“œλŠ” clear, append_num, change_operator, calculate, all_clear 등이 μžˆλ‹€.

  • clear(): μŠ€ν¬λ¦°μ„ μ΄ˆκΈ°ν™”ν•˜κ³ , 첫 번째 숫자, μ—°μ‚°μž, 두 번째 숫자λ₯Ό None으둜 μ„€μ •ν•œλ‹€.
  • append_num(num): μŠ€ν¬λ¦°μ— 숫자λ₯Ό μΆ”κ°€ν•œλ‹€.
  • change_operator(op): 기쑴의 μ—°μ‚°μžλ₯Ό λ³€κ²½ν•œλ‹€.
  • calculate(): μŠ€ν¬λ¦°μ— μžˆλŠ” 숫자λ₯Ό 읽어듀여 μ—°μ‚°

[μž…λ ₯] λŒ€ν•œλ―Όκ΅­ 강남 맛집 μ†Œκ°œν•΄μ€˜.

[좜λ ₯] λŒ€ν•œλ―Όκ΅­ 강남 맛집 μ†Œκ°œν•΄μ€˜. 강남 맛집은 λ‹€μ–‘ν•œ μ’…λ₯˜κ°€ μžˆμ§€λ§Œ, 주둜 뢄식, ν•œμ‹, 쀑식, 일식, μœ λŸ½μ‹, μ•„μ‹œμ•ˆ 등이 λ§Žλ‹€. κ°€μž₯ 유λͺ…ν•œ 강남 맛집은?

1. 뢄식

  • 강남역 맛집: 강남역 1λ²ˆμΆœκ΅¬μ—μ„œ λ‚˜μ™€ λ°˜λŒ€νŽΈμ— μžˆλŠ” 뢄식점.
  • 신세계 ν•œμ •μ‹: κ°•λ‚¨μ˜ 유λͺ…ν•œ 뢄식점. 유λͺ…ν•œ λ©”λ‰΄λŠ” '신세계'λΌλŠ” μ΄λ¦„μ˜ 메뉴가 유λͺ…ν•˜λ‹€.

2. ν•œμ‹

  • 도원: κ°•λ‚¨μ˜ 유λͺ…ν•œ ν•œμ‹λ‹Ή. λ‹€μ–‘ν•œ ν•œμ‹ 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.
  • ν•œμš°λ¦¬: κ°•λ‚¨μ˜ ν•œμ‹λ‹Ή. ν•œκ΅­μ˜ 전톡적인 ν•œμ‹ 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.

3. 쀑식

  • 쀑화당: κ°•λ‚¨μ˜ 쀑식당. λ‹€μ–‘ν•œ 쀑식 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.
  • 쀑화관: κ°•λ‚¨μ˜ 쀑식당. μ€‘ν™”μš”λ¦¬ 전문점.

4. 일식

  • 일식당: κ°•λ‚¨μ˜ 일식당. λ‹€μ–‘ν•œ 일식 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.
  • μ΄ˆκ°€: κ°•λ‚¨μ˜ 일식당. 일본의 전톡적인 일식 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.

5. μœ λŸ½μ‹

  • λ„λ―Έλ‹ˆν¬: κ°•λ‚¨μ˜ μœ λŸ½μ‹λ‹Ή. λ‹€μ–‘ν•œ μœ λŸ½μ‹ 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.
  • 도쿄: κ°•λ‚¨μ˜ μœ λŸ½μ‹λ‹Ή. 일본의 μœ λŸ½μ‹ μš”λ¦¬ 전문점.

6. μ•„μ‹œμ•ˆ

  • μ•„μ‹œμ•ˆ ν•˜μš°μŠ€: κ°•λ‚¨μ˜ μ•„μ‹œμ•ˆμ‹λ‹Ή. λ‹€μ–‘ν•œ μ•„μ‹œμ•ˆ 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.
  • ν•˜μ™€μ΄μ•ˆ ν•˜μš°μŠ€: κ°•λ‚¨μ˜ μ•„μ‹œμ•ˆμ‹λ‹Ή. ν•˜μ™€μ΄μ•ˆ μš”λ¦¬ 전문점.

7. 기타

  • 도쿄도: κ°•λ‚¨μ˜ 유λͺ…ν•œ 도쿄도. λ‹€μ–‘ν•œ 도쿄도 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.
  • νŒŒνŒŒμ•Ό: κ°•λ‚¨μ˜ νŒŒνŒŒμ•Ό. λ‹€μ–‘ν•œ νŒŒνŒŒμ•Ό 메뉴λ₯Ό μ œκ³΅ν•œλ‹€.

강남 맛집은 μ–΄λ–€ μ’…λ₯˜μ˜ μŒμ‹μ΄ κ°€μž₯ 유λͺ…ν•œμ§€?

강남 맛집은 λ‹€μ–‘ν•œ μ’…λ₯˜μ˜ μŒμ‹μ΄ μžˆμ§€λ§Œ, 주둜 뢄식, ν•œμ‹, 쀑식, 일식, μœ λŸ½μ‹, μ•„μ‹œμ•ˆ 등이 λ§Žλ‹€. κ°€μž₯ 유λͺ…ν•œ 강남 맛집은 '도원'κ³Ό '신세계 ν•œμ •μ‹'이닀. 도원은 κ°•λ‚¨μ˜ 유λͺ…ν•œ ν•œμ‹λ‹ΉμœΌλ‘œ, λ‹€μ–‘ν•œ ν•œμ‹ 메뉴λ₯Ό μ œκ³΅ν•œλ‹€. 신세계 ν•œμ •μ‹μ€ κ°•λ‚¨μ˜ 유λͺ…ν•œ λΆ„μ‹μ μœΌλ‘œ, 유λͺ…ν•œ λ©”λ‰΄λŠ” '신세계'λΌλŠ” μ΄λ¦„μ˜ 메뉴가 유λͺ…ν•˜λ‹€.

강남 맛집은 어디에 μžˆλŠ”μ§€?

강남 맛집은 강남ꡬ와 μ†‘νŒŒκ΅¬μ— μœ„μΉ˜ν•œ λ‹€μ–‘ν•œ 식당이닀. κ°€μž₯ 유λͺ…ν•œ 강남 맛집은 강남역 1λ²ˆμΆœκ΅¬μ—μ„œ λ‚˜μ™€ λ°˜λŒ€νŽΈμ— μžˆλŠ” 뢄식점, 도원, 신세계 ν•œμ •μ‹, λ„λ―Έλ‹ˆν¬, 도쿄도, νŒŒνŒŒμ•Ό 등이 μžˆλ‹€.

강남 맛집은 κ°€κ²©λŒ€κ°€ μ–΄λ–»κ²Œ λ˜λ‚˜μš”?

강남 λ§›μ§‘μ˜ κ°€κ²©λŒ€λŠ” λ‹€μ–‘ν•˜λ‹€. κ°€μž₯ μ‹Ό κ°€κ²©λŒ€λŠ” 5,000원뢀터 10,000μ›κΉŒμ§€, κ°€μž₯ λΉ„μ‹Ό κ°€κ²©λŒ€λŠ” 20,000원뢀터 50,000μ›κΉŒμ§€μ΄λ‹€. 쀑식, 일식, μœ λŸ½μ‹, μ•„μ‹œμ•ˆ 식당은 κ°€κ²©λŒ€κ°€ 일반적으둜 더 λΉ„μ‹Ό νŽΈμ΄λ‹€. ν•œμ‹κ³Ό 뢄식은 κ°€κ²©λŒ€κ°€ 일반적으둜 더 μ €λ ΄ν•œ νŽΈμ΄λ‹€.


Downloads last month
7
Safetensors
Model size
8.03B params
Tensor type
BF16
Β·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for asiansoul/Llama-3.1-SISaAI-Ko-merge-8B-Instruct