MindLink-72B-0801 / README_CN.md
klllbb's picture
Update README_CN.md
d7d8b63 verified

MindLink

English | 中文

模型介绍

我们推出了全新的大语言模型系列 MindLink,由昆仑万维 开发。我们使用了最新的后训练(post-training)技术来改进了 Qwen 模型的效果,在多个通用基准测试中,MindLink 展现了较强的性能,能够广泛应用于多种 AI 场景。我们欢迎各方反馈,以帮助我们不断优化和改进模型。

🚀 模型下载

🤖 模型 📏 上下文长度 ⬇️ 下载
MindLink 32B 128K 🤗 HuggingFace
MindLink 72B 128K 🤗 HuggingFace

📖 技术报告

详细训练方法和评估: MindLink


模型亮点

  • 推出全新推理大模型,新的推理范式:Plan-based Reasoning,去掉了"think"标签,减少了推理成本和增强了多轮对话能力,增强了推理过程的可读性和相关性。

  • 提出一套数学方法,尝试分析CoT和Plan-based Reasoning的有效性。

  • 提出一套自适应的推理机制,根据任务难度,整合推理和非推理的生成长度。

  • MindLink模型,是基于Qwen3-32B和Qwen2.5-72B,进行了后训练,提高了原本模型能力,未来会开源更多尺寸模型。


快速开始

以下示例代码展示了如何使用 apply_chat_template 来加载分词器和模型,并生成内容。

⚠️ 请确保已安装 transformers>=4.51.0,不支持更低版本。

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Skywork/MindLink-72B-0801"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "中国的首都是哪里?"
messages = [
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=512
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

部署时,可以使用 sglang>=0.4.9.post1 创建一个兼容 OpenAI 的 API 接口:

  • SGLang:

    python -m sglang.launch_server --model-path Skywork/MindLink-72B-0801 --tp 2
    

API 接入

📢 我们为开发者提供了一个月的免费 API 调用额度来探索与测试我们的模型。同时如需申请 Open WebUI 的账户(https://sd1svahsfo0m61h76e190.apigateway-cn-beijing.volceapi.com), 请发送邮件联系我们~ **[email protected]**。

🔧 使用说明

我们的聊天 API 支持 OpenAI 格式,使用时只需将 API Key 加入到 HTTP POST 请求即可。

⚠️ 注意: 如果模型返回的结果出现异常或不符合预期,建议清除上下文历史记录(history)后重新尝试。

✅ 使用 curl 发起请求的示例:

curl -X POST https://sd2690u280c6ft26qcdi0.apigateway-cn-beijing.volceapi.com/v1/chat/completions \
     -H "Authorization: Bearer nc6Dt7DrLJNzLELiqOR1bogO5Oh1qHtO" \
     -H "Content-Type: application/json" \
     -d '{
           "model": "Mind_Link_beta_32B",
           "messages": [
             {"role": "user", "content": "What is the capital of China?"}
           ],
           "temperature": 0.7,
           "max_tokens": 128,
           "stream": false
         }'

🐍 使用 Python 发起请求的示例:

import requests

API_KEY = "nc6Dt7DrLJNzLELiqOR1bogO5Oh1qHtO"
API_URL = "https://sd2690u280c6ft26qcdi0.apigateway-cn-beijing.volceapi.com/v1/chat/completions"

headers = {
    "Authorization": f"Bearer {API_KEY}",
    "Content-Type": "application/json"
}

payload = {
    "model": "Mind_Link_beta_32B",
    "messages": [
        {"role": "user", "content": "What is the capital of China?"}
    ],
    "temperature": 0.7,
    "max_tokens": 128,
    "stream": False
}

response = requests.post(API_URL, headers=headers, json=payload)

if response.status_code == 200:
    reply = response.json()
    print("MindLink 响应内容:")
    print(reply["choices"][0]["message"]["content"])
else:
    print(f"请求错误 {response.status_code}: {response.text}")

🌐 API 接口详情

  • 接口地址https://sd2690u280c6ft26qcdi0.apigateway-cn-beijing.volceapi.com/v1/chat/completions
  • 认证方式:使用您的 API Key,以 Authorization: Bearer <api_key> 格式认证
  • 请求格式:兼容 OpenAI 的聊天(Chat Completion)API 格式
  • 支持字段modelmessagestemperaturetop_pmax_tokensstreamstop
  • 模型标识符:模型名选项: "Mind_Link_beta_32B""Mind_Link_beta_72B"
  • API Key:我们公开如下的 API Key 以供更便捷地使用我们的模型:"nc6Dt7DrLJNzLELiqOR1bogO5Oh1qHtO"(通过该API Key发送的请求会进入队列并且限制请求速率,如需更快的访问速率,请邮件联系我们申请单独的API Key~)

模型评估

结果如下: MindLink和各大先进模型对比


许可证与使用信息

模型许可证与使用条款

1. 核心许可证

本模型采用 Apache License 2.0 授权,用户享有以下权利:

✅ 商业部署

✅ 修改源代码

✅ 专利授权

✅ 闭源衍生

⚠️ 禁止使用模型名称/logo进行推广(需书面授权)

⚠️ 不提供任何担保

2. 继承声明

本模型基于 Qwen(Apache 2.0 协议)改进开发,您必须:

  • 在衍生作品中保留原始Qwen版权声明
  • 在修改说明中清晰标注变动内容
  • 遵守Qwen模型的附加使用限制