File size: 2,285 Bytes
c705bbf
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
merge_method: della_linear
base_model: deepseek-ai/DeepSeek-R1-Distill-Llama-70B
tokenizer_source: "unsloth/Llama-3.3-70B-Instruct"
dtype: float16
parameters:
  epsilon: 0.05             # Fine-grain scaling for precision.
  lambda: 1.6               # Strong emphasis on top-performing models.
  normalize: true           # Stable parameter integration across models.
adaptive_merge_parameters:
  task_weights:
    tinyArc: 2.0            # Увеличиваем вес для логического рассуждения.
    tinyHellaswag: 1.75     # Увеличиваем для контекстных предсказаний.
    tinyMMLU: 2.0           # Увеличиваем для доменных знаний.
    tinyTruthfulQA: 2.2     # Увеличиваем приоритет правдивого рассуждения.
    tinyTruthfulQA_mc1: 2.0 # Поддерживаем высокий приоритет для многоразовых вопросов.
    tinyWinogrande: 2.0     # Увеличиваем для сложного рассуждения и предсказаний.
    IFEval: 2.1             # Поддерживаем высокий приоритет для выполнения инструкций и многозадачности.
    BBH: 2.0                # Увеличиваем для комплексного рассуждения.
    MATH: 2.5               # Увеличиваем вес математического рассуждения для акцента на точности.
    GPQA: 2.3               # Увеличиваем вес для фактического QA.
    MUSR: 2.1               # Поддерживаем высокий приоритет для многошагового рассуждения.
    MMLU-PRO: 2.3           # Поддерживаем высокие показатели в многозадачности по доменам.
  smoothing_factor: 0.1     # Сглаживание остается прежним для плавного смешивания.

models:
  - model: nvidia/Llama-3.1-Nemotron-70B-Instruct-HF
    parameters:
      weight: 1
      density: 1
  - model: deepseek-ai/DeepSeek-R1-Distill-Llama-70B
    parameters:
      weight: 1
      density: 1