merge_method: della_linear | |
base_model: deepseek-ai/DeepSeek-R1-Distill-Llama-70B | |
tokenizer_source: "unsloth/Llama-3.3-70B-Instruct" | |
dtype: float16 | |
parameters: | |
epsilon: 0.05 # Fine-grain scaling for precision. | |
lambda: 1.6 # Strong emphasis on top-performing models. | |
normalize: true # Stable parameter integration across models. | |
adaptive_merge_parameters: | |
task_weights: | |
tinyArc: 2.0 # Увеличиваем вес для логического рассуждения. | |
tinyHellaswag: 1.75 # Увеличиваем для контекстных предсказаний. | |
tinyMMLU: 2.0 # Увеличиваем для доменных знаний. | |
tinyTruthfulQA: 2.2 # Увеличиваем приоритет правдивого рассуждения. | |
tinyTruthfulQA_mc1: 2.0 # Поддерживаем высокий приоритет для многоразовых вопросов. | |
tinyWinogrande: 2.0 # Увеличиваем для сложного рассуждения и предсказаний. | |
IFEval: 2.1 # Поддерживаем высокий приоритет для выполнения инструкций и многозадачности. | |
BBH: 2.0 # Увеличиваем для комплексного рассуждения. | |
MATH: 2.5 # Увеличиваем вес математического рассуждения для акцента на точности. | |
GPQA: 2.3 # Увеличиваем вес для фактического QA. | |
MUSR: 2.1 # Поддерживаем высокий приоритет для многошагового рассуждения. | |
MMLU-PRO: 2.3 # Поддерживаем высокие показатели в многозадачности по доменам. | |
smoothing_factor: 0.1 # Сглаживание остается прежним для плавного смешивания. | |
models: | |
- model: nvidia/Llama-3.1-Nemotron-70B-Instruct-HF | |
parameters: | |
weight: 1 | |
density: 1 | |
- model: deepseek-ai/DeepSeek-R1-Distill-Llama-70B | |
parameters: | |
weight: 1 | |
density: 1 | |