jinv2 commited on
Commit
56d3553
·
verified ·
1 Parent(s): 962f509

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +10 -28
README.md CHANGED
@@ -1,3 +1,7 @@
 
 
 
 
1
  ```markdown
2
  ---
3
  license: apache-2.0
@@ -34,11 +38,11 @@ This repository contains a LoRA (Low-Rank Adaptation) adapter fine-tuned on the
34
  * **类型:** 综合生成的文本格式轨迹数据。
35
  * **格式:** 每个样本包含一段历史轨迹和对应的未来真实轨迹,表示为 `历史: x1,y1,vx1,vy1; ... 预测: xN,yN,vxN,vyN; ...`。
36
  * **物理规律:** 数据生成脚本中包含了匀速直线运动和匀加速直线运动模型,确保训练数据在理想情况下符合基础物理。时间步长 `dt` 设置为 0.1秒。
37
- * **规模:** 使用了约 300 条样本进行微调演示。
38
  3. **微调技术:**
39
  * **LoRA (Low-Rank Adaptation):** 主要对`gpt2`模型中的注意力权重 (`c_attn`) 应用LoRA层。
40
  * **LoRA参数:**秩 (r) = 8, alpha = 16, dropout = 0.05。
41
- * **训练设置:** 在Google Colab T4 GPU上进行了 5 个epoch的训练,批次大小为4,学习率为3e-4。
42
  4. **目标:** 模型学习根据给定的历史轨迹(包括位置x, y和速度vx, vy)续写生成未来若干时间步的轨迹。
43
 
44
  ## 如何使用
@@ -130,7 +134,7 @@ print(f"解析后的预测点: {predicted_points}")
130
 
131
  ## 评估结果
132
 
133
- 在包含 50 条样本的独立测试集上进行了评估。评估指标主要关注预测轨迹的准确性和物理一致性。
134
 
135
  * **平均位移误差 (Average Displacement Error, ADE):** `0.2684` 米 (平均每个预测时间步与真值的欧氏距离)
136
  * **最终位移误差 (Final Displacement Error, FDE):** `0.2810` 米 (预测轨迹最后一个点与真值的欧氏距离)
@@ -156,28 +160,7 @@ print(f"解析后的预测点: {predicted_points}")
156
  为了更好地理解LLM与物理常识模块在无人驾驶轨迹预测中的结合,我们可以构想一个概念性的知识图谱。
157
 
158
  ![概念知识图谱](conceptual_knowledge_graph.png)
159
- *(请确保名为 `conceptual_knowledge_graph.png` 的图片与此 `README.md` 文件一起上传到Hugging Face仓库的根目录。你可以使用Mermaid或其他工具生成此图。)*
160
-
161
- **图谱示例Mermaid代码 (用于生成上述图片):**
162
- ```mermaid
163
- graph TD
164
- A[历史轨迹 (文本)] --> B{GPT-2 + LoRA};
165
- B --> C[预测轨迹 (文本)];
166
- C --> D[解析器];
167
- D --> E[结构化预测轨迹 (数值)];
168
- F[真实轨迹 (数值)] --> G{评估模块};
169
- E --> G;
170
- G --> H[ADE, FDE, 物理一致性指标];
171
-
172
- subgraph "LLM 微调"
173
- I[训练数据 (含物理规律)] --> J{训练过程};
174
- J --> B;
175
- K[损失函数] --> J;
176
- end
177
-
178
- style B fill:#f9f,stroke:#333,stroke-width:2px
179
- style J fill:#ccf,stroke:#333,stroke-width:2px
180
- ```
181
 
182
  ## 局限性与未来工作
183
 
@@ -195,7 +178,6 @@ graph TD
195
  © 2024 天算AI科技研发实验室 (Natural Algorithm AI R&D Lab).
196
 
197
  本项目根据 Apache License 2.0 许可证授权。详情请参阅仓库中的 `LICENSE` 文件。
 
198
 
199
- ---
200
-
201
- ```
 
1
+ 好的,这是基于我们之前的讨论,并且**假设你已经将Mermaid图成功转换为名为 `conceptual_knowledge_graph.png` 的图片,并打算将其上传到你的Hugging Face仓库根目录**的 `README.md` 完整内容。
2
+
3
+ **请注意:** 你需要将 `[你的训练样本数]`、`[你的训练epoch数]`、`[你的测试样本数]` 这些占位符替换为你的实际数值。
4
+
5
  ```markdown
6
  ---
7
  license: apache-2.0
 
38
  * **类型:** 综合生成的文本格式轨迹数据。
39
  * **格式:** 每个样本包含一段历史轨迹和对应的未来真实轨迹,表示为 `历史: x1,y1,vx1,vy1; ... 预测: xN,yN,vxN,vyN; ...`。
40
  * **物理规律:** 数据生成脚本中包含了匀速直线运动和匀加速直线运动模型,确保训练数据在理想情况下符合基础物理。时间步长 `dt` 设置为 0.1秒。
41
+ * **规模:** 使用了约 [你的训练样本数,例如 300] 条样本进行微调演示。
42
  3. **微调技术:**
43
  * **LoRA (Low-Rank Adaptation):** 主要对`gpt2`模型中的注意力权重 (`c_attn`) 应用LoRA层。
44
  * **LoRA参数:**秩 (r) = 8, alpha = 16, dropout = 0.05。
45
+ * **训练设置:** 在Google Colab T4 GPU上进行了 [你的训练epoch数,例如 5] 个epoch的训练,批次大小为4,学习率为3e-4。
46
  4. **目标:** 模型学习根据给定的历史轨迹(包括位置x, y和速度vx, vy)续写生成未来若干时间步的轨迹。
47
 
48
  ## 如何使用
 
134
 
135
  ## 评估结果
136
 
137
+ 在包含 [你的测试样本数,例如 50] 条样本的独立测试集上进行了评估。评估指标主要关注预测轨迹的准确性和物理一致性。
138
 
139
  * **平均位移误差 (Average Displacement Error, ADE):** `0.2684` 米 (平均每个预测时间步与真值的欧氏距离)
140
  * **最终位移误差 (Final Displacement Error, FDE):** `0.2810` 米 (预测轨迹最后一个点与真值的欧氏距离)
 
160
  为了更好地理解LLM与物理常识模块在无人驾驶轨迹预测中的结合,我们可以构想一个概念性的知识图谱。
161
 
162
  ![概念知识图谱](conceptual_knowledge_graph.png)
163
+ *(上图展示了系统的主要组件和数据流。请确保名为 `conceptual_knowledge_graph.png` 的图片已上传到本仓库的根目录。)*
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
164
 
165
  ## 局限性与未来工作
166
 
 
178
  © 2024 天算AI科技研发实验室 (Natural Algorithm AI R&D Lab).
179
 
180
  本项目根据 Apache License 2.0 许可证授权。详情请参阅仓库中的 `LICENSE` 文件。
181
+ *(请确保在仓库根目录添加一个名为 `LICENSE` 的文件,其中包含 Apache 2.0 许可证的完整文本。)*
182
 
183
+ ---