Update README.md
Browse files
README.md
CHANGED
@@ -12,7 +12,22 @@ datasets:
|
|
12 |
# Model Card for DeepSeek-R1-Psychology-COT
|
13 |
|
14 |
## Model Description
|
15 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
16 |
|
17 |
## Usage
|
18 |
|
|
|
12 |
# Model Card for DeepSeek-R1-Psychology-COT
|
13 |
|
14 |
## Model Description
|
15 |
+
Xinjing-LM 是一个专注于心理健康领域的智能助手,基于 Qwen 模型进行微调和优化,旨在理解复杂的心理学知识、生成高质量文本并支持多轮对话。通过数据蒸馏、指令微调和多轮对话构建等技术,Xinjing-LM 在心理健康场景中表现出色,能够为用户提供准确、流畅且逻辑严谨的心理学相关建议。
|
16 |
+
|
17 |
+
## 数据集
|
18 |
+
|
19 |
+
我们使用了以下数据集进行模型训练和优化:
|
20 |
+
|
21 |
+
- **Chinese-Data-Distill-From-R1**:开源中文蒸馏数据集,涵盖数学、考试、STEM 和通用类型数据。
|
22 |
+
- **psychology-10k-sft**:包含 10,000 条心理学相关指令微调数据。
|
23 |
+
- **psychology-10k-sft-zh**:将 psychology-10k-sft 的英文数据翻译为中文。
|
24 |
+
- **心理健康-R1蒸馏中文数据集-10k**:利用 DeepSeek R1 生成的心理健康相关推理数据。
|
25 |
+
- **多轮对话数据集**:通过情感类型和生活场景组合生成的多轮对话数据。
|
26 |
+
|
27 |
+
## 模型选择与微调
|
28 |
+
|
29 |
+
1. 先用**Congliu/Chinese-DeepSeek-R1-Distill-data-110k**对 **Qwen2.5-7B-Instruct** 进行SFT,全量微调,使得模型具备强大的中文推理能力,**Mingsmilet/Qwen2.5-7B-R1-SFT**已经训练好模型。
|
30 |
+
2. 再对SFT后的模型使用**LoRA** 技术进行优化。微调后的模型在心理健康领域的表现显著提升,能够处理复杂的心理学场景和多轮对话。
|
31 |
|
32 |
## Usage
|
33 |
|