Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,7 @@
|
|
|
|
|
|
|
|
|
|
1 |
```markdown
|
2 |
---
|
3 |
license: apache-2.0
|
@@ -34,11 +38,11 @@ This repository contains a LoRA (Low-Rank Adaptation) adapter fine-tuned on the
|
|
34 |
* **类型:** 综合生成的文本格式轨迹数据。
|
35 |
* **格式:** 每个样本包含一段历史轨迹和对应的未来真实轨迹,表示为 `历史: x1,y1,vx1,vy1; ... 预测: xN,yN,vxN,vyN; ...`。
|
36 |
* **物理规律:** 数据生成脚本中包含了匀速直线运动和匀加速直线运动模型,确保训练数据在理想情况下符合基础物理。时间步长 `dt` 设置为 0.1秒。
|
37 |
-
* **规模:** 使用了约 300 条样本进行微调演示。
|
38 |
3. **微调技术:**
|
39 |
* **LoRA (Low-Rank Adaptation):** 主要对`gpt2`模型中的注意力权重 (`c_attn`) 应用LoRA层。
|
40 |
* **LoRA参数:**秩 (r) = 8, alpha = 16, dropout = 0.05。
|
41 |
-
* **训练设置:** 在Google Colab T4 GPU上进行了 5 个epoch的训练,批次大小为4,学习率为3e-4。
|
42 |
4. **目标:** 模型学习根据给定的历史轨迹(包括位置x, y和速度vx, vy)续写生成未来若干时间步的轨迹。
|
43 |
|
44 |
## 如何使用
|
@@ -130,7 +134,7 @@ print(f"解析后的预测点: {predicted_points}")
|
|
130 |
|
131 |
## 评估结果
|
132 |
|
133 |
-
在包含 50 条样本的独立测试集上进行了评估。评估指标主要关注预测轨迹的准确性和物理一致性。
|
134 |
|
135 |
* **平均位移误差 (Average Displacement Error, ADE):** `0.2684` 米 (平均每个预测时间步与真值的欧氏距离)
|
136 |
* **最终位移误差 (Final Displacement Error, FDE):** `0.2810` 米 (预测轨迹最后一个点与真值的欧氏距离)
|
@@ -156,28 +160,7 @@ print(f"解析后的预测点: {predicted_points}")
|
|
156 |
为了更好地理解LLM与物理常识模块在无人驾驶轨迹预测中的结合,我们可以构想一个概念性的知识图谱。
|
157 |
|
158 |

|
159 |
-
*(
|
160 |
-
|
161 |
-
**图谱示例Mermaid代码 (用于生成上述图片):**
|
162 |
-
```mermaid
|
163 |
-
graph TD
|
164 |
-
A[历史轨迹 (文本)] --> B{GPT-2 + LoRA};
|
165 |
-
B --> C[预测轨迹 (文本)];
|
166 |
-
C --> D[解析器];
|
167 |
-
D --> E[结构化预测轨迹 (数值)];
|
168 |
-
F[真实轨迹 (数值)] --> G{评估模块};
|
169 |
-
E --> G;
|
170 |
-
G --> H[ADE, FDE, 物理一致性指标];
|
171 |
-
|
172 |
-
subgraph "LLM 微调"
|
173 |
-
I[训练数据 (含物理规律)] --> J{训练过程};
|
174 |
-
J --> B;
|
175 |
-
K[损失函数] --> J;
|
176 |
-
end
|
177 |
-
|
178 |
-
style B fill:#f9f,stroke:#333,stroke-width:2px
|
179 |
-
style J fill:#ccf,stroke:#333,stroke-width:2px
|
180 |
-
```
|
181 |
|
182 |
## 局限性与未来工作
|
183 |
|
@@ -195,7 +178,6 @@ graph TD
|
|
195 |
© 2024 天算AI科技研发实验室 (Natural Algorithm AI R&D Lab).
|
196 |
|
197 |
本项目根据 Apache License 2.0 许可证授权。详情请参阅仓库中的 `LICENSE` 文件。
|
|
|
198 |
|
199 |
-
---
|
200 |
-
|
201 |
-
```
|
|
|
1 |
+
好的,这是基于我们之前的讨论,并且**假设你已经将Mermaid图成功转换为名为 `conceptual_knowledge_graph.png` 的图片,并打算将其上传到你的Hugging Face仓库根目录**的 `README.md` 完整内容。
|
2 |
+
|
3 |
+
**请注意:** 你需要将 `[你的训练样本数]`、`[你的训练epoch数]`、`[你的测试样本数]` 这些占位符替换为你的实际数值。
|
4 |
+
|
5 |
```markdown
|
6 |
---
|
7 |
license: apache-2.0
|
|
|
38 |
* **类型:** 综合生成的文本格式轨迹数据。
|
39 |
* **格式:** 每个样本包含一段历史轨迹和对应的未来真实轨迹,表示为 `历史: x1,y1,vx1,vy1; ... 预测: xN,yN,vxN,vyN; ...`。
|
40 |
* **物理规律:** 数据生成脚本中包含了匀速直线运动和匀加速直线运动模型,确保训练数据在理想情况下符合基础物理。时间步长 `dt` 设置为 0.1秒。
|
41 |
+
* **规模:** 使用了约 [你的训练样本数,例如 300] 条样本进行微调演示。
|
42 |
3. **微调技术:**
|
43 |
* **LoRA (Low-Rank Adaptation):** 主要对`gpt2`模型中的注意力权重 (`c_attn`) 应用LoRA层。
|
44 |
* **LoRA参数:**秩 (r) = 8, alpha = 16, dropout = 0.05。
|
45 |
+
* **训练设置:** 在Google Colab T4 GPU上进行了 [你的训练epoch数,例如 5] 个epoch的训练,批次大小为4,学习率为3e-4。
|
46 |
4. **目标:** 模型学习根据给定的历史轨迹(包括位置x, y和速度vx, vy)续写生成未来若干时间步的轨迹。
|
47 |
|
48 |
## 如何使用
|
|
|
134 |
|
135 |
## 评估结果
|
136 |
|
137 |
+
在包含 [你的测试样本数,例如 50] 条样本的独立测试集上进行了评估。评估指标主要关注预测轨迹的准确性和物理一致性。
|
138 |
|
139 |
* **平均位移误差 (Average Displacement Error, ADE):** `0.2684` 米 (平均每个预测时间步与真值的欧氏距离)
|
140 |
* **最终位移误差 (Final Displacement Error, FDE):** `0.2810` 米 (预测轨迹最后一个点与真值的欧氏距离)
|
|
|
160 |
为了更好地理解LLM与物理常识模块在无人驾驶轨迹预测中的结合,我们可以构想一个概念性的知识图谱。
|
161 |
|
162 |

|
163 |
+
*(上图展示了系统的主要组件和数据流。请确保名为 `conceptual_knowledge_graph.png` 的图片已上传到本仓库的根目录。)*
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
164 |
|
165 |
## 局限性与未来工作
|
166 |
|
|
|
178 |
© 2024 天算AI科技研发实验室 (Natural Algorithm AI R&D Lab).
|
179 |
|
180 |
本项目根据 Apache License 2.0 许可证授权。详情请参阅仓库中的 `LICENSE` 文件。
|
181 |
+
*(请确保在仓库根目录添加一个名为 `LICENSE` 的文件,其中包含 Apache 2.0 许可证的完整文本。)*
|
182 |
|
183 |
+
---
|
|
|
|