PyTorch
Safetensors
qwen2
unsloth
trl
sft
cvGod commited on
Commit
05623a8
·
verified ·
1 Parent(s): a1ce7fd

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +16 -1
README.md CHANGED
@@ -12,7 +12,22 @@ datasets:
12
  # Model Card for DeepSeek-R1-Psychology-COT
13
 
14
  ## Model Description
15
- This model is a fine-tuned version of the DeepSeek-R1-Psychology-COT model, designed for specific tasks in the psychology domain using Chain-of-Thought (CoT) reasoning.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
16
 
17
  ## Usage
18
 
 
12
  # Model Card for DeepSeek-R1-Psychology-COT
13
 
14
  ## Model Description
15
+ Xinjing-LM 是一个专注于心理健康领域的智能助手,基于 Qwen 模型进行微调和优化,旨在理解复杂的心理学知识、生成高质量文本并支持多轮对话。通过数据蒸馏、指令微调和多轮对话构建等技术,Xinjing-LM 在心理健康场景中表现出色,能够为用户提供准确、流畅且逻辑严谨的心理学相关建议。
16
+
17
+ ## 数据集
18
+
19
+ 我们使用了以下数据集进行模型训练和优化:
20
+
21
+ - **Chinese-Data-Distill-From-R1**:开源中文蒸馏数据集,涵盖数学、考试、STEM 和通用类型数据。
22
+ - **psychology-10k-sft**:包含 10,000 条心理学相关指令微调数据。
23
+ - **psychology-10k-sft-zh**:将 psychology-10k-sft 的英文数据翻译为中文。
24
+ - **心理健康-R1蒸馏中文数据集-10k**:利用 DeepSeek R1 生成的心理健康相关推理数据。
25
+ - **多轮对话数据集**:通过情感类型和生活场景组合生成的多轮对话数据。
26
+
27
+ ## 模型选择与微调
28
+
29
+ 1. 先用**Congliu/Chinese-DeepSeek-R1-Distill-data-110k**对 **Qwen2.5-7B-Instruct** 进行SFT,全量微调,使得模型具备强大的中文推理能力,**Mingsmilet/Qwen2.5-7B-R1-SFT**已经训练好模型。
30
+ 2. 再对SFT后的模型使用**LoRA** 技术进行优化。微调后的模型在心理健康领域的表现显著提升,能够处理复杂的心理学场景和多轮对话。
31
 
32
  ## Usage
33