Commit
·
727b414
1
Parent(s):
c197857
Upload config.yaml
Browse files- config.yaml +30 -0
config.yaml
ADDED
@@ -0,0 +1,30 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
keep: "" # 用于bug填充, 动了也没用
|
2 |
+
|
3 |
+
# 普通用户配置专区(怎么改都行)
|
4 |
+
APIToken: "cfe7mpr2fperuifn6id0" # 你的API token,没有的自己上WeLM官网https://docs.qq.com/form/page/DUW1YVVJNbHpzV2No#/fill-detail申请
|
5 |
+
BotName: "弥豆子" # 里面填你机器人角色昵称or自设之类的?
|
6 |
+
probability: 4 # 在群里触发的概率(百分比)
|
7 |
+
dhreplystart: "" # 对话指令回复开头备注, 不 用与其他ai区分时可留空
|
8 |
+
lxdhreplystart: "(对话ing)" # 连续对话指令 回复开头备注, 不用与其他ai区分时可留空
|
9 |
+
twreplystart: "" # 问答指令回复开头备注, 不 用与其他ai区分时可留空
|
10 |
+
xxreplystart: "" # 续写指令回复开头备注, 不 用与其他ai区分时可留空
|
11 |
+
ydljreplystart: "(由WeLM阅读理解)" # 阅读理解指令回复开 头备注, 不用与其他ai区分时可留空
|
12 |
+
|
13 |
+
# 模型参数调试专区(最好不碰,参数已由作者设定完成)
|
14 |
+
model: xl # 要使用的模型名称,当前支持的模型名称有medium、 large 和 xl
|
15 |
+
max_tokens: 256 # 最多生成的token个数, 默认值 256
|
16 |
+
temperature: 0.85 # 默认值 0.85,更高的temperature意味着模型具备更多的可能性对于更有创造性的应用,可以尝试0.85以上,而对于有明确答案的应用,可以尝试0(argmax采样) 建议改变这个值或top_p,但不要同时改变
|
17 |
+
top_p: 0.95 # 默认值 0.95,来源于nucleus sampling,采用 的是累计概率的方式
|
18 |
+
top_k: 50 # 默认值50,从概率分布中依据概率最大选择k个单 词,建议不要过小导致模a型能选择的词汇少
|
19 |
+
n: 2 # 默认值 2, 大于0, 小于等于12 返回的序列的个数
|
20 |
+
# 下面的谁碰谁傻逼
|
21 |
+
stop: "\n" # 默认值"\n",当模型当前生成的字符为stop中的 任何一个字符时,会停止生成
|
22 |
+
twstop: "。" # 默认值"。",问答指令stop, 当模型当前生成 的字符为stop中的任何一个字符时,会停止生成
|
23 |
+
# End
|
24 |
+
|
25 |
+
# 插件调试专区(开发人员专用,更改后可能会寄)
|
26 |
+
dhcmdstart: "v" # 对话指令开头
|
27 |
+
lxdhcmdstart: "w" # 连续对话指令开头
|
28 |
+
twcmdstart: "提问" # 问答指令开头
|
29 |
+
xxcmdstart: "续写" # 续写指令开头
|
30 |
+
ydlicmdstart: "阅读理解" # 阅读理解指令开
|