lintonxue00 commited on
Commit
727b414
·
1 Parent(s): c197857

Upload config.yaml

Browse files
Files changed (1) hide show
  1. config.yaml +30 -0
config.yaml ADDED
@@ -0,0 +1,30 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ keep: "" # 用于bug填充, 动了也没用
2
+
3
+ # 普通用户配置专区(怎么改都行)
4
+ APIToken: "cfe7mpr2fperuifn6id0" # 你的API token,没有的自己上WeLM官网https://docs.qq.com/form/page/DUW1YVVJNbHpzV2No#/fill-detail申请
5
+ BotName: "弥豆子" # 里面填你机器人角色昵称or自设之类的?
6
+ probability: 4 # 在群里触发的概率(百分比)
7
+ dhreplystart: "" # 对话指令回复开头备注, 不 用与其他ai区分时可留空
8
+ lxdhreplystart: "(对话ing)" # 连续对话指令 回复开头备注, 不用与其他ai区分时可留空
9
+ twreplystart: "" # 问答指令回复开头备注, 不 用与其他ai区分时可留空
10
+ xxreplystart: "" # 续写指令回复开头备注, 不 用与其他ai区分时可留空
11
+ ydljreplystart: "(由WeLM阅读理解)" # 阅读理解指令回复开 头备注, 不用与其他ai区分时可留空
12
+
13
+ # 模型参数调试专区(最好不碰,参数已由作者设定完成)
14
+ model: xl # 要使用的模型名称,当前支持的模型名称有medium、 large 和 xl
15
+ max_tokens: 256 # 最多生成的token个数, 默认值 256
16
+ temperature: 0.85 # 默认值 0.85,更高的temperature意味着模型具备更多的可能性对于更有创造性的应用,可以尝试0.85以上,而对于有明确答案的应用,可以尝试0(argmax采样) 建议改变这个值或top_p,但不要同时改变
17
+ top_p: 0.95 # 默认值 0.95,来源于nucleus sampling,采用 的是累计概率的方式
18
+ top_k: 50 # 默认值50,从概率分布中依据概率最大选择k个单 词,建议不要过小导致模a型能选择的词汇少
19
+ n: 2 # 默认值 2, 大于0, 小于等于12 返回的序列的个数
20
+ # 下面的谁碰谁傻逼
21
+ stop: "\n" # 默认值"\n",当模型当前生成的字符为stop中的 任何一个字符时,会停止生成
22
+ twstop: "。" # 默认值"。",问答指令stop, 当模型当前生成 的字符为stop中的任何一个字符时,会停止生成
23
+ # End
24
+
25
+ # 插件调试专区(开发人员专用,更改后可能会寄)
26
+ dhcmdstart: "v" # 对话指令开头
27
+ lxdhcmdstart: "w" # 连续对话指令开头
28
+ twcmdstart: "提问" # 问答指令开头
29
+ xxcmdstart: "续写" # 续写指令开头
30
+ ydlicmdstart: "阅读理解" # 阅读理解指令开