Spaces:
Running
Running
Upload config.yml
Browse files- config.yml +179 -0
config.yml
ADDED
@@ -0,0 +1,179 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# 全局配置
|
2 |
+
# 对于希望在同一时间使用多个配置文件的情况,例如两个GPU同时跑两个训练集:通过环境变量指定配置文件,不指定则默认为./config.yml
|
3 |
+
|
4 |
+
# 拟提供通用路径配置,统一存放数据,避免数据放得很乱
|
5 |
+
# 每个数据集与其对应的模型存放至统一路径下,后续所有的路径配置均为相对于datasetPath的路径
|
6 |
+
# 不填或者填空则路径为相对于项目根目录的路径
|
7 |
+
dataset_path: "Data/"
|
8 |
+
|
9 |
+
# 模型镜像源,默认huggingface,使用openi镜像源需指定openi_token
|
10 |
+
mirror: ""
|
11 |
+
openi_token: "" # openi token
|
12 |
+
|
13 |
+
# resample 音频重采样配置
|
14 |
+
# 注意, “:” 后需要加空格
|
15 |
+
resample:
|
16 |
+
# 目标重采样率
|
17 |
+
sampling_rate: 44100
|
18 |
+
# 音频文件输入路径,重采样会将该路径下所有.wav音频文件重采样
|
19 |
+
# 请填入相对于datasetPath的相对路径
|
20 |
+
in_dir: "audios/raw" # 相对于根目录的路径为 /datasetPath/in_dir
|
21 |
+
# 音频文件重采样后输出路径
|
22 |
+
out_dir: "audios/wavs"
|
23 |
+
|
24 |
+
|
25 |
+
# preprocess_text 数据集预处理相关配置
|
26 |
+
# 注意, “:” 后需要加空格
|
27 |
+
preprocess_text:
|
28 |
+
# 原始文本文件路径,文本格式应为{wav_path}|{speaker_name}|{language}|{text}。
|
29 |
+
transcription_path: "filelists/你的数据集文本.list"
|
30 |
+
# 数据清洗后文本路径,可以不填。不填则将在原始文本目录生成
|
31 |
+
cleaned_path: ""
|
32 |
+
# 训练集路径
|
33 |
+
train_path: "filelists/train.list"
|
34 |
+
# 验证集路径
|
35 |
+
val_path: "filelists/val.list"
|
36 |
+
# 配置文件路径
|
37 |
+
config_path: "config.json"
|
38 |
+
# 每个语言的验证集条数
|
39 |
+
val_per_lang: 4
|
40 |
+
# 验证集最大条数,多于的会被截断并放到训练集中
|
41 |
+
max_val_total: 12
|
42 |
+
# 是否进行数据清洗
|
43 |
+
clean: true
|
44 |
+
|
45 |
+
|
46 |
+
# bert_gen 相关配置
|
47 |
+
# 注意, “:” 后需要加空格
|
48 |
+
bert_gen:
|
49 |
+
# 训练数据集配置文件路径
|
50 |
+
config_path: "config.json"
|
51 |
+
# 并行数
|
52 |
+
num_processes: 4
|
53 |
+
# 使用设备:可选项 "cuda" 显卡推理,"cpu" cpu推理
|
54 |
+
# 该选项同时决定了get_bert_feature的默认设备
|
55 |
+
device: "cuda"
|
56 |
+
# 使用多卡推理
|
57 |
+
use_multi_device: false
|
58 |
+
|
59 |
+
# emo_gen 相关配置
|
60 |
+
# 注意, “:” 后需要加空格
|
61 |
+
emo_gen:
|
62 |
+
# 训练数据集配置文件路径
|
63 |
+
config_path: "config.json"
|
64 |
+
# 并行数
|
65 |
+
num_processes: 4
|
66 |
+
# 使用设备:可选项 "cuda" 显卡推理,"cpu" cpu推理
|
67 |
+
device: "cuda"
|
68 |
+
# 使用多卡推理
|
69 |
+
use_multi_device: false
|
70 |
+
|
71 |
+
# train 训练配置
|
72 |
+
# 注意, “:” 后需要加空格
|
73 |
+
train_ms:
|
74 |
+
env:
|
75 |
+
MASTER_ADDR: "localhost"
|
76 |
+
MASTER_PORT: 10086
|
77 |
+
WORLD_SIZE: 1
|
78 |
+
LOCAL_RANK: 0
|
79 |
+
RANK: 0
|
80 |
+
# 可以填写任意名的环境变量
|
81 |
+
# THE_ENV_VAR_YOU_NEED_TO_USE: "1234567"
|
82 |
+
# 底模设置
|
83 |
+
base:
|
84 |
+
use_base_model: false
|
85 |
+
repo_id: "Stardust_minus/Bert-VITS2"
|
86 |
+
model_image: "Bert-VITS2_中文特化底模" # openi网页的模型名
|
87 |
+
# 训练模型存储目录:与旧版本的区别,原先数据集是存放在logs/model_name下的,现在改为统一存放在Data/你的数据集/models下
|
88 |
+
model: "models"
|
89 |
+
# 配置文件路径
|
90 |
+
config_path: "config.json"
|
91 |
+
# 训练使用的worker,不建议超过CPU核心数
|
92 |
+
num_workers: 16
|
93 |
+
# 关闭此项可以节约接近50%的磁盘空间,但是可能导致实际训练速度变慢和更高的CPU使用率。
|
94 |
+
spec_cache: False
|
95 |
+
# 保存的检查点数量,多于此数目的权重会被删除来节省空间。
|
96 |
+
keep_ckpts: 8
|
97 |
+
|
98 |
+
|
99 |
+
# webui webui配置
|
100 |
+
# 注意, “:” 后需要加空格
|
101 |
+
webui:
|
102 |
+
# 推理设备
|
103 |
+
device: "cuda"
|
104 |
+
# 模型路径
|
105 |
+
model: "models/G_8000.pth"
|
106 |
+
# 配置文件路径
|
107 |
+
config_path: "config.json"
|
108 |
+
# 端口号
|
109 |
+
port: 7860
|
110 |
+
# 是否公开部署,对外网开放
|
111 |
+
share: false
|
112 |
+
# 是否开启debug模式
|
113 |
+
debug: false
|
114 |
+
# 是否开启fp16推理,开启后可减少~45%的显存占用
|
115 |
+
fp16_run: false
|
116 |
+
# 语种识别库,可选langid, fastlid
|
117 |
+
language_identification_library: "langid"
|
118 |
+
|
119 |
+
|
120 |
+
# server-fastapi配置
|
121 |
+
# 注意, “:” 后需要加空格
|
122 |
+
# 注意,本配置下的所有配置均为相对于根目录的路径
|
123 |
+
server:
|
124 |
+
# 端口号
|
125 |
+
port: 5000
|
126 |
+
# 模型默认使用设备:但是当前并没有实现这个配置。
|
127 |
+
device: "cuda"
|
128 |
+
# 需要加载的所有模型的配置,可以填多个模型,也可以不填模型,等网页成功后手动加载模型
|
129 |
+
# 不加载模型的配置格式:删除默认给的两个模型配置,给models赋值 [ ],也就是空列表。参考模型2的speakers 即 models: [ ]
|
130 |
+
# 注意,所有模型都必须正确配置model与config的路径,空路径会导致加载错误。
|
131 |
+
# 也可以不填模型,等网页加载成功后手动填写models。
|
132 |
+
models:
|
133 |
+
- # 模型的路径
|
134 |
+
model: ""
|
135 |
+
# 模型config.json的路径
|
136 |
+
config: ""
|
137 |
+
# 模型使用设备,若填写则会覆盖默认配置
|
138 |
+
device: "cuda"
|
139 |
+
# 模型默认使用的语言
|
140 |
+
language: "EN"
|
141 |
+
# 模型人物默认参数
|
142 |
+
# 不必填写所有人物,不填的使用默认值
|
143 |
+
# 暂时不用填写,当前尚未实现按人区分配置
|
144 |
+
speakers:
|
145 |
+
- speaker: "科比"
|
146 |
+
sdp_ratio: 0.2
|
147 |
+
noise_scale: 0.6
|
148 |
+
noise_scale_w: 0.8
|
149 |
+
length_scale: 1
|
150 |
+
- speaker: "五条悟"
|
151 |
+
sdp_ratio: 0.3
|
152 |
+
noise_scale: 0.7
|
153 |
+
noise_scale_w: 0.8
|
154 |
+
length_scale: 0.5
|
155 |
+
- speaker: "安倍晋三"
|
156 |
+
sdp_ratio: 0.2
|
157 |
+
noise_scale: 0.6
|
158 |
+
noise_scale_w: 0.8
|
159 |
+
length_scale: 1.2
|
160 |
+
- # 模型的路径
|
161 |
+
model: ""
|
162 |
+
# 模型config.json的路径
|
163 |
+
config: ""
|
164 |
+
# 模型使用设备,若填写则会覆盖默认配置
|
165 |
+
device: "cpu"
|
166 |
+
# 模型默认使用的语言
|
167 |
+
language: "JP"
|
168 |
+
# 模型人物默认参数
|
169 |
+
# 不必填写所有人物,不填的使用默认值
|
170 |
+
speakers: [ ] # 也可以不填
|
171 |
+
|
172 |
+
# 百度翻译开放平台 api配置
|
173 |
+
# api接入文档 https://api.fanyi.baidu.com/doc/21
|
174 |
+
# 请不要在github等网站公开分享你的app id 与 key
|
175 |
+
translate:
|
176 |
+
# 你的APPID
|
177 |
+
"app_key": ""
|
178 |
+
# 你的密钥
|
179 |
+
"secret_key": ""
|