From f94a14cb63e2afd40cba3e94f84077643d9a7560 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E8=B0=A2=E5=AE=87?= <47858007+xieyumc@users.noreply.github.com> Date: Tue, 28 Mar 2023 12:31:57 +0800 Subject: [PATCH] docs(readme_zh_cn): update README_zh_CN.md (#173) Co-authored-by: mona <> --- README_zh_CN.md | 325 +++++++++++++++++++++++++++--------------------- 1 file changed, 185 insertions(+), 140 deletions(-) diff --git a/README_zh_CN.md b/README_zh_CN.md index 028c70f7..1a1cba32 100644 --- a/README_zh_CN.md +++ b/README_zh_CN.md @@ -1,186 +1,231 @@ # SoftVC VITS Singing Voice Conversion -[**English**](./README.md) | [**中文简体**](./README_zh_CN.md) - -## 使用规约 - -1. 本项目是基于学术交流目的建立,仅供交流与学习使用,并非为生产环境准备,请自行解决数据集的授权问题,任何由于使用非授权数据集进行训练造成的问题,需自行承担全部责任和一切后果! -2. 任何发布到视频平台的基于 sovits 制作的视频,都必须要在简介明确指明用于变声器转换的输入源歌声、音频,例如:使用他人发布的视频 / 音频,通过分离的人声作为输入源进行转换的,必须要给出明确的原视频、音乐链接;若使用是自己的人声,或是使用其他歌声合成引擎合成的声音作为输入源进行转换的,也必须在简介加以说明。 -3. 由输入源造成的侵权问题需自行承担全部责任和一切后果。使用其他商用歌声合成软件作为输入源时,请确保遵守该软件的使用条例,注意,许多歌声合成引擎使用条例中明确指明不可用于输入源进行转换! -4. 继续使用视为已同意本仓库 README 所述相关条例,本仓库 README 已进行劝导义务,不对后续可能存在问题负责。 -5. 如将本仓库代码二次分发,或将由此项目产出的任何结果公开发表 (包括但不限于视频网站投稿),请注明原作者及代码来源 (此仓库)。 -6. 如果将此项目用于任何其他企划,请提前联系并告知本仓库作者,十分感谢。 - -## update - -> 更新了 4.0-v2 模型,全部流程同 4.0,相比 4.0 在部分场景下有一定提升,但也有些情况有退步,具体可移步[4.0-v2 分支](https://github.com/svc-develop-team/so-vits-svc/tree/4.0-v2) - -## 模型简介 - -歌声音色转换模型,通过 SoftVC 内容编码器提取源音频语音特征,与 F0 同时输入 VITS 替换原本的文本输入达到歌声转换的效果。同时,更换声码器为 [NSF HiFiGAN](https://github.com/openvpi/DiffSinger/tree/refactor/modules/nsf_hifigan) 解决断音问题 - -### 4.0 版本更新内容 - -- 特征输入更换为 [Content Vec](https://github.com/auspicious3000/contentvec) -- 采样率统一使用 44100hz -- 由于更改了 hop size 等参数以及精简了部分模型结构,推理所需显存占用**大幅降低**,4.0 版本 44khz 显存占用甚至小于 3.0 版本的 32khz -- 调整了部分代码结构 -- 数据集制作、训练过程和 3.0 保持一致,但模型完全不通用,数据集也需要全部重新预处理 -- 增加了可选项 1:vc 模式自动预测音高 f0,即转换语音时不需要手动输入变调 key,男女声的调能自动转换,但仅限语音转换,该模式转换歌声会跑调 -- 增加了可选项 2:通过 kmeans 聚类方案减小音色泄漏,即使得音色更加像目标音色 - -## 预先下载的模型文件 - -#### **必须项** - -- contentvec :[checkpoint_best_legacy_500.pt](https://ibm.box.com/s/z1wgl1stco8ffooyatzdwsqn2psd9lrr) - - 放在`hubert`目录下 +

+ + CI Status + + + Documentation Status + + + Test coverage percentage + +

+

+ + Poetry + + + black + + + pre-commit + +

+

+ + PyPI Version + + Supported Python versions + License +

+ +基于 [`so-vits-svc4.0(V1)`](https://github.com/svc-develop-team/so-vits-svc)的一个分支,支持实时推理和图形化推理界面。 + +## 新功能 + +- **实时语音转换** (增强版本 v1.1.0) +- 使用 CREPE 进行更准确的音高推测 +- 图形化界面 +- 统一命令行界面(无需运行 Python 脚本) +- 只需使用 `pip` 安装即可使用 +- 自动下载预训练模型和 HuBERT 模型 +- 使用 black、isort、autoflake 等完全格式化的代码 +- 还有一些细微差别 + +## 安装教程 + +### 可以使用 bat 一键安装 + + + Download .bat + + +### 手动安装: + +### [创建一个虚拟环境](https://github.com/34j/so-vits-svc-fork/wiki#creating-a-virtual-environment) + +### 安装 + +通过 pip 安装 (或者通过包管理器使用 pip 安装): ```shell -# contentvec -http://obs.cstcloud.cn/share/obs/sankagenkeshi/checkpoint_best_legacy_500.pt -# 也可手动下载放在hubert目录 +python -m pip install -U pip setuptools wheel +pip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu117 +pip install -U so-vits-svc-fork ``` -#### **可选项(强烈建议使用)** - -- 预训练底模文件: `G_0.pth` `D_0.pth` - - 放在`logs/44k`目录下 - -从 svc-develop-team(待定)或任何其他地方获取 - -虽然底模一般不会引起什么版权问题,但还是请注意一下,比如事先询问作者,又或者作者在模型描述中明确写明了可行的用途 +- 如果没有可用 GPU, 不需要执行 `pip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu117`. +- 如果在 Linux 下使用 AMD GPU, 请使用此命令 `--index-url https://download.pytorch.org/whl/rocm5.4.2` + 替换掉 `--index-url https://download.pytorch.org/whl/cu117` . Windows 下不支持 AMD GPUs (#120). +- 如果 `fairseq` 报错: + - 如果提示 [`Microsoft C++ Build Tools`](https://visualstudio.microsoft.com/visual-cpp-build-tools/) 没有安装. 安装即可. + - 如果提示缺少 dll 文件, 重新安装 `Microsoft Visual C++ 2022` 和 `Windows SDK` 可能有用 -## 数据集准备 +### 更新 -仅需要以以下文件结构将数据集放入 dataset_raw 目录即可 +请经常更新以获取最新功能和修复错误: ```shell -dataset_raw -├───speaker0 -│ ├───xxx1-xxx1.wav -│ ├───... -│ └───Lxx-0xx8.wav -└───speaker1 - ├───xx2-0xxx2.wav - ├───... - └───xxx7-xxx007.wav +pip install -U so-vits-svc-fork ``` -## 数据预处理 +## 使用教程 -1. 重采样至 44100hz +### 推理 -```shell -python resample.py -``` +#### 图形化界面 -2. 自动划分训练集 验证集 测试集 以及自动生成配置文件 +![GUI](https://raw.githubusercontent.com/34j/so-vits-svc-fork/main/docs/_static/gui.png) -```shell -python preprocess_flist_config.py -``` - -3. 生成 hubert 与 f0 +请使用以下命令运行图形化界面: ```shell -python preprocess_hubert_f0.py +svcg ``` -执行完以上步骤后 dataset 目录便是预处理完成的数据,可以删除 dataset_raw 文件夹了 +#### 命令行界面 -## 训练 +- 实时转换 (输入源为麦克风) ```shell -python train.py -c configs/config.json -m 44k +svc vc --model-path ``` -注:训练时会自动清除老的模型,只保留最新 3 个模型,如果想防止过拟合需要自己手动备份模型记录点,或修改配置文件 keep_ckpts 0 为永不清除 - -## 推理 - -使用 [inference_main.py](src/so_vits_svc_fork/inference_main.py) - -截止此处,4.0 使用方法(训练、推理)和 3.0 完全一致,没有任何变化(推理增加了命令行支持) +- 从文件转换 ```shell -# 例 -python inference_main.py -m "logs/44k/G_30400.pth" -c "configs/config.json" -n "君の知らない物語-src.wav" -t 0 -s "nen" +svc --model-path source.wav ``` -必填项部分 - -- -m, --model_path:模型路径。 -- -c, --config_path:配置文件路径。 -- -n, --clean_names:wav 文件名列表,放在 raw 文件夹下。 -- -t, --trans:音高调整,支持正负(半音)。 -- -s, --spk_list:合成目标说话人名称。 - -可选项部分:见下一节 - -- -a, --auto_predict_f0:语音转换自动预测音高,转换歌声时不要打开这个会严重跑调。 -- -cm, --cluster_model_path:聚类模型路径,如果没有训练聚类则随便填。 -- -cr, --cluster_infer_ratio:聚类方案占比,范围 0-1,若没有训练聚类模型则填 0 即可。 - -## 可选项 - -如果前面的效果已经满意,或者没看明白下面在讲啥,那后面的内容都可以忽略,不影响模型使用(这些可选项影响比较小,可能在某些特定数据上有点效果,但大部分情况似乎都感知不太明显) +[预训练模型](https://huggingface.co/models?search=so-vits-svc-4.0) 可以在 HuggingFace 获得。 -### 自动 f0 预测 +#### 注意 -4.0 模型训练过程会训练一个 f0 预测器,对于语音转换可以开启自动音高预测,如果效果不好也可以使用手动的,但转换歌声时请不要启用此功能!!!会严重跑调!! +- 如果使用 WSL, 请注意 WSL 需要额外设置来处理音频,如果 GUI 找不到音频设备将不能正常工作。 +- 在实时语音转换中, 如果输入源有杂音, HuBERT + 模型依然会把杂音进行推理.可以考虑使用实时噪音减弱程序比如 [RTX Voice](https://www.nvidia.com/en-us/geforce/guides/nvidia-rtx-voice-setup-guide/) + 来解决. -- 在 inference_main 中设置 auto_predict_f0 为 true 即可 +### 训练 -### 聚类音色泄漏控制 +#### 预处理 -介绍:聚类方案可以减小音色泄漏,使得模型训练出来更像目标的音色(但其实不是特别明显),但是单纯的聚类方案会降低模型的咬字(会口齿不清)(这个很明显),本模型采用了融合的方式, -可以线性控制聚类方案与非聚类方案的占比,也就是可以手动在"像目标音色" 和 "咬字清晰" 之间调整比例,找到合适的折中点。 +- 如果数据集有 BGM,请用例如[Ultimate Vocal Remover](https://ultimatevocalremover.com/)等软件去除 BGM. + 推荐使用`3_HP-Vocal-UVR.pth` 或者 `UVR-MDX-NET Main` . [^1] +- 如果数据集是包含多个歌手的长音频文件, 使用 `svc sd` 将数据集拆分为多个文件 (使用 `pyannote.audio`) + 。为了提高准确率,可能需要手动进行分类。如果歌手的声线多样,请把 --min-speakers 设置为大于实际说话者数量. 如果出现依赖未安装, + 请通过 `pip install pyannote-audio`来安装 `pyannote.audio`。 +- 如果数据集是包含单个歌手的长音频文件, 使用 `svc split` 将数据集拆分为多个文件 (使用 `librosa`). -使用聚类前面的已有步骤不用进行任何的变动,只需要额外训练一个聚类模型,虽然效果比较有限,但训练成本也比较低 +[^1]: https://ytpmv.info/how-to-use-uvr/ -- 训练过程: - - 使用 cpu 性能较好的机器训练,据我的经验在腾讯云 6 核 cpu 训练每个 speaker 需要约 4 分钟即可完成训练 - - 执行 python cluster/train_cluster.py ,模型的输出会在 logs/44k/kmeans_10000.pt -- 推理过程: - - inference_main 中指定 cluster_model_path - - inference_main 中指定 cluster_infer_ratio,0 为完全不使用聚类,1 为只使用聚类,通常设置 0.5 即可 +#### Google Colab -### [![Open in Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/drive/1kv-3y2DmZo0uya8pEr1xk7cSB-4e_Pct?usp=sharing) [sovits4_for_colab.ipynb](https://colab.research.google.com/drive/1kv-3y2DmZo0uya8pEr1xk7cSB-4e_Pct?usp=sharing) +[![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/34j/so-vits-svc-fork/blob/main/notebooks/so-vits-svc-fork-4.0.ipynb) -## Onnx 导出 +#### 本地 -使用 [onnx_export.py](src/so_vits_svc_fork/onnx_export.py) +将数据集处理成 `dataset_raw/{speaker_id}/**/{wav_file}.{any_format}` 的格式(可以使用子文件夹和非 ASCII 文件名)然后运行: -- 新建文件夹:`checkpoints` 并打开 -- 在`checkpoints`文件夹中新建一个文件夹作为项目文件夹,文件夹名为你的项目名称,比如`aziplayer` -- 将你的模型更名为`model.pth`,配置文件更名为`config.json`,并放置到刚才创建的`aziplayer`文件夹下 -- 将 [onnx_export.py](src/so_vits_svc_fork/onnx_export.py) 中`path = "NyaruTaffy"` 的 `"NyaruTaffy"` 修改为你的项目名称,`path = "aziplayer"` -- 运行 [onnx_export.py](src/so_vits_svc_fork/onnx_export.py) -- 等待执行完毕,在你的项目文件夹下会生成一个`model.onnx`,即为导出的模型 - -### Onnx 模型支持的 UI - -- [MoeSS](https://github.com/NaruseMioShirakana/MoeSS) -- 我去除了所有的训练用函数和一切复杂的转置,一行都没有保留,因为我认为只有去除了这些东西,才知道你用的是 Onnx -- 注意:Hubert Onnx 模型请使用 MoeSS 提供的模型,目前无法自行导出(fairseq 中 Hubert 有不少 onnx 不支持的算子和涉及到常量的东西,在导出时会报错或者导出的模型输入输出 shape 和结果都有问题) - [Hubert4.0](https://huggingface.co/NaruseMioShirakana/MoeSS-SUBModel) - -## 一些法律条例参考 - -#### 《民法典》 +```shell +svc pre-resample +svc pre-config +svc pre-hubert +svc train -t +``` -##### 第一千零一十九条 +#### 注意 -任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。 -未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。 -对自然人声音的保护,参照适用肖像权保护的有关规定。 +- 数据集的每个文件应该小于 10s,不然显存会爆。 +- 如果想要 f0 的推理方式为 CREPE, 用 `svc pre-hubert -fm crepe` 替换 `svc pre-hubert`. + 由于性能原因,可能需要减少 `--n-jobs` 。 +- 建议在执行 `train` 命令之前更改 `config.json` 中的 batch_size 以匹配显存容量。 默认值针对 Tesla + T4(16GB 显存)进行了优化,但没有那么多显存也可以进行训练。 +- 在原始仓库中,会自动移除静音和进行音量平衡,且这个操作并不是必须要处理的。 -##### 第一千零二十四条 +### 帮助 -【名誉权】民事主体享有名誉权。任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。 +更多命令, 运行 `svc -h` 或者 `svc -h` -##### 第一千零二十七条 +```shell +> svc -h +用法: svc [OPTIONS] COMMAND [ARGS]... + + so-vits-svc 允许任何文件夹结构用于训练数据 + 但是, 建议使用以下文件夹结构 + 训练: dataset_raw/{speaker_name}/**/{wav_name}.{any_format} + 推理: configs/44k/config.json, logs/44k/G_XXXX.pth + 如果遵循文件夹结构,则无需指定模型路径,配置路径等,将自动加载最新模型 + 若要要训练模型, 运行 pre-resample, pre-config, pre-hubert, train. + 若要要推理模型, 运行 infer. + +可选: + -h, --help 显示信息并退出 + +命令: + clean 清理文件,仅在使用默认文件结构时有用 + infer 推理 + onnx 导出模型到onnx + pre-config 预处理第 2 部分: config + pre-hubert 预处理第 3 部分: 如果没有找到 HuBERT 模型,则会... + pre-resample 预处理第 1 部分: resample + pre-sd Speech diarization 使用 pyannote.audio + pre-split 将音频文件拆分为多个文件 + train 训练模型 如果 D_0.pth 或 G_0.pth 没有找到,自动从集线器下载. + train-cluster 训练 k-means 聚类模型 + vc 麦克风实时推理 +``` -【作品侵害名誉权】行为人发表的文学、艺术作品以真人真事或者特定人为描述对象,含有侮辱、诽谤内容,侵害他人名誉权的,受害人有权依法请求该行为人承担民事责任。 -行为人发表的文学、艺术作品不以特定人为描述对象,仅其中的情节与该特定人的情况相似的,不承担民事责任。 +#### 补充链接 + +[视频教程](https://www.youtube.com/watch?v=tZn0lcGO5OQ) + +## Contributors ✨ + +Thanks goes to these wonderful people ([emoji key](https://allcontributors.org/docs/en/emoji-key)): + + + + + + + + + + + + + + + + + + + + + + + + + +
34j
34j

💻 🤔 📖 💡 🚇 🚧 👀 ⚠️ 📣 🐛
GarrettConway
GarrettConway

💻 🐛 📖
BlueAmulet
BlueAmulet

🤔 💬 💻
ThrowawayAccount01
ThrowawayAccount01

🐛
緋

📖 🐛
Lordmau5
Lordmau5

🐛 💻
DL909
DL909

🐛
Satisfy256
Satisfy256

🐛
Pierluigi Zagaria
Pierluigi Zagaria

📓
ruckusmattster
ruckusmattster

🐛
Desuka-art
Desuka-art

🐛
heyfixit
heyfixit

📖
Nerdy Rodent
Nerdy Rodent

📹
+ + + + + + + +This project follows the [all-contributors](https://github.com/all-contributors/all-contributors) specification. +Contributions of any kind welcome!