Skip to content

Latest commit

 

History

History
275 lines (195 loc) · 25.3 KB

CHANGELOG.md

File metadata and controls

275 lines (195 loc) · 25.3 KB

Changelog

v2.4.1 (2024-03-16)

batファイルでのインストール・アップデート方法の変更(それ以外の変更はありません)

諸事情により、インストール・アップデートのbatファイルを変更しました(Gitが使えないのでバージョンアップ時のアップデートの対応が困難だったため、Gitがない環境の場合はPortableGitをダウンロードして使うように)。

伴って、これまでWindowsでbatファイルをダブルクリックしてインストールしていた方は再インストールが必須となります。大変申し訳ありません。

インストール手順

(インストールの流れは変わりませんが、batファイルは変わっているので、新しいzipを必ずダウンロードしてください)

  • sbv2.zipをダウンロードし、解凍してください。
  • グラボがある方は、Install-Style-Bert-VITS2.batをダブルクリックします。
  • グラボがない方は、Install-Style-Bert-VITS2-CPU.batをダブルクリックします。CPU版では学習はできませんが、音声合成とマージは可能です。

アップデート手順

以前のバージョンからのアップデート

今までの環境を全て削除して新しくインストールする必要があります。 移行方法:

  • 重要なデータが入っている可能性のあるDataフォルダとmodel_assetsフォルダをバックアップ
  • 上のインストール手順から、新しい場所にStyle-Bert-VITS2をインストール
  • インストールが終了したら、バックアップしたDataフォルダとmodel_assetsフォルダを新しいStyle-Bert-VITS2フォルダにコピー
  • これまでインストールされていたフォルダ(batファイルたち含む)は削除しても構いません

今後のアップデート

今後は、新しくインストールされた中のUpdate-Style-Bert-VITS2.batをダブルクリックしてください。今までのUpdate-Style-Bert-VITS2.bat等のファイルは使えません。

v2.4.0 (2024-03-15)

大規模リファクタリング・日本語処理のワーカー化と機能追加等。データセット作り・学習・音声合成・マージ・スタイルWebUIは全てapp.py (App.bat) へ統一されましたのでご注意ください。

アップデート手順

  • 2.3未満(辞書・エディター追加前)からのアップデートの場合は、Update-to-Dict-Editor.batをダウンロードし、Style-Bert-VITS2フォルダがある場所(インストールbatファイルとかがあったところ)においてダブルクリックしてください。
  • それ以外の場合は、単純に今までのUpdate-Style-Bert-VITS2.batでアップデートできます。
  • ただしアップデートにより多くのファイルが移動したり不要になったりしたので、それらを削除したい場合はClean.batUpdate-Style-Bert-VITS2.batと同じ場所に保存して実行してください。

内部改善

  • tsukumijimaさんによる大規模リファクタリングのプルリク によって、内部コードが非常に整理され可読性が高まりライブラリ化もされた。tsukumijimaさん 大変な作業を本当にありがとうございます!
  • ライブラリとしてpip install style-bert-vits2によりすぐにインストールでき、音声合成部分の機能が使えます(使用例は/library.ipynbを参照してください)
  • その他このプルリクに動機づけられ、多くのコードのリファクタリング・型アノテーションの追加等を行った
  • 日本語処理のpyopenjtalkをソケット通信を用いて別プロセス化し、複数同時に学習や音声合成を立ち上げても辞書の競合エラーが起きないように。kale4eat さんによるPR です、ありがとうございます!

バグ修正

  • 上記にもある通り、音声合成と学習前処理など、日本語処理を扱うものを2つ以上起動しようとするとエラーが発生する仕様の解決。ユーザー辞書は追加すれば常にどこからでも適応されます。
  • rawフォルダの直下でなくサブフォルダ内に音声ファイルがある場合に、wavsフォルダでもその構造が保たれてしまい、書き起こしファイルとの整合性が取れなくなる挙動を修正し、常にwavフォルダ直下へwavファイルを保存するように変更
  • スライス時に元ファイル名にピリオド . が含まれると、スライス後のファイル名がおかしくなるバグの修正

機能改善・追加

  • 各種WebUIを一つapp.py App.bat に統一
  • その他以下の変更や、軽微なUI・説明文の改善等

データセット作成

  • スライス処理の高速化(マルチスレッドにした、大量にスライス元ファイルファイルがある場合に高速になります)、またスライス元のファイルをwav以外のmp3oggなどの形式にも対応
  • スライス処理時に、ファイル名にスライスされた開始終了区間を含めるオプションを追加(aka7774 さんによるPRです、ありがとうございます!)
  • 書き起こしの高速化、またHugging FaceのWhisperモデルを使うオプションを追加。バッチサイズを上げることでVRAMを食う代わりに速度が大幅に向上します。

学習

  • 学習元の音声ファイル(Data/モデル名/rawにいれるやつ)を、wav以外のmp3oggなどの形式にも対応(前処理段階で自動的にwavファイルに変換されます)(ただし変わらず1ファイル2-12秒程度の範囲の長さが望ましい)

音声合成

  • 音声合成時に、生成音声の音の高さ(音高)と抑揚の幅を調整できるように(ただし音質が少し劣化する)。App.batEditor.batのどちらからでも使えます。
  • Editor.batの複数話者モデルでの話者指定を可能に
  • Editor.batで、改行を含む文字列をペーストすると自動的に欄が増えるように。また「↑↓」キーで欄を追加・行き来できるように(エディター側で以前に既にアプデしていました)
  • Editor.batでモデル一覧のリロードをメニューに追加

API

  • server_fastapi.pyの実行時に全てのモデルファイルを読み込もうとする挙動を修正。音声合成がリクエストされて初めてそのモデルを読み込むように変更(APIを使わない音声合成のときと同じ挙動)
  • server_fastapi.pyの音声合成エンドポイント/voiceについて、GETメソッドに加えてPOSTメソッドを追加。GETメソッドでは多くの制約があるようなのでPOSTを使うことが推奨されます。

CLI

  • preprocess_text.pyで、書き起こしファイルでの音声ファイル名を自動的に正しいData/モデル名/wavs/へ書き換える--correct_pathオプションの追加(WebUIでは今までもこの挙動でした)
  • その他上述のデータセット作成の機能追加に伴うCLIのオプションの追加(詳しくはCLI.mdを参照)

v2.3.1 (2024-02-27)

バグ修正

  • colabの学習用ノートブックが動かなかったのを修正
  • App.batserver_fastapi.pyでは読めない文字でまだエラーが発生するようになっていたので、推論時は必ず読めない文字を無視して強引に読むように挙動を変更

改善

  • 読みが取得できない場合に、テキスト前処理完了時にエラーで中断する今までの挙動に加えて、「読み取得失敗ファイルを学習に使わずに進める」もしくは「読めない文字を無視して読んでファイルを学習に使い進める」というオプションを追加。
  • マージ方法に線形補間の他に球面線形補完を追加 (@frodo821 さんによるPRです、ありがとうございます!)
  • デプロイ用.dockerignoreを更新

アップデート手順

  • 2.3未満からのアップデートの場合は、Update-to-Dict-Editor.batをダウンロードし、Style-Bert-VITS2フォルダがある場所(インストールbatファイルとかがあったところ)においてダブルクリックしてください。
  • 2.3からのアップデートの場合は、単純に今までのUpdate-Style-Bert-VITS2.batでアップデートできます。

v2.3 (2024-02-26)

大きな変更

大きい変更をいくつかしたため、アップデートはまた専用の手順が必要です。下記の指示にしたがってください。

ユーザー辞書機能

あらかじめ辞書に固有名詞を追加することができ、それが学習時音声合成時の読み取得部分に適応されます。辞書の追加・編集は次のエディタ経由で行ってください。または、手持ちのOpenJTalkのcsv形式の辞書がある場合は、dict_data/default.csvファイルを直接上書きや追加しても可能です。

使えそうな辞書(ライセンス等は各自ご確認ください)(他に良いのがあったら教えて下さい):

辞書機能部分の実装 は、中のREADMEにある通り、VOICEVOX Editor のものを使っており、この部分のコードライセンスはLGPL-3.0です。

音声合成専用エディタ

🤗 オンラインデモはこちらから

音声合成専用エディタを追加。今までのWebUIでできた機能のほか、次のような機能が使えます(つまり既存の日本語音声合成ソフトウェアのエディタを真似ました):

  • セリフ単位でキャラや設定を変更しながら原稿を作り、それを一括で生成したり、原稿を保存等したり読み込んだり
  • GUIよる分かりやすいアクセント調整
  • ユーザー辞書への単語追加や編集

Editor.batをダブルクリックかpython server_editor.py --inbrowserで起動します。エディター部分はこちらの別リポジトリになります。フロントエンド初心者なのでプルリクや改善案等をお待ちしています。

バグ修正

  • 特定の状況で読みが正しく取得できず list index out of range となるバグの修正
  • 前処理時に、書き起こしファイルのある行の形式が不正だと、書き起こしファイルのそれ以降の内容が消えてしまうバグの修正
  • faster-whisperが1.0.0にメジャーバージョンアップされ(今のところ)大幅に劣化したので、バージョンを0.10.1へ固定

改善

  • テキスト前処理時に、読みの取得の失敗等があった場合に、処理を中断せず、エラーがおきた箇所をtext_error.logファイルへ保存するように変更。
  • 音声合成時に、読めない文字があったときはエラーを起こさず、その部分を無視して読み上げるように変更(学習段階ではエラーを出します)
  • コマンドラインで前処理や学習が簡単にできるよう、前処理を行うpreprocess_all.pyを追加(詳しくはCLI.mdを参照)
  • 学習の際に、自動的に自分のhugging faceリポジトリへ結果をアップロードするオプションを追加。コマンドライン引数で--repo_id username/my_modelのように指定してください(詳しくはCLI.mdを参照)。🤗の無制限ストレージが使えるのでクラウドでの学習に便利です。
  • 学習時にデコーダー部分を凍結するオプションの追加。品質がもしかしたら上がるかもしれません。
  • initialize.pyに引数--dataset_root--assets_rootを追加し、configs/paths.ymlをその時点で変更できるようにした

その他

アップデート手順

  • Update-to-Dict-Editor.batをダウンロードし、Style-Bert-VITS2フォルダがある場所(インストールbatファイルとかがあったところ)においてダブルクリックしてください。

  • 手動での場合は、以下の手順で実行してください:

git pull
venv\Scripts\activate
pip uninstall pyopenjtalk-prebuilt
pip install -U -r requirements.txt
# python initialize.py  # これを1.x系からのアップデートの場合は実行してください
python server_editor.py --inbrowser

新規インストール手順

このzipをダウンロードし、解凍してください。 を展開し、Install-Style-Bert-VITS2.batをダブルクリックしてください。

v2.2 (2024-02-09)

変更・機能追加

  • bfloat16オプションはデメリットしか無さそうなので、常にオフで学習するよう変更
  • バッチサイズのデフォルトを4から2に変更。学習が遅い場合はバッチサイズを下げて試してみて、VRAMに余裕があれば上げてください。JP-Extra使用時でのバッチサイズごとのVRAM使用量目安は、1: 6GB, 2: 8GB, 3: 10GB, 4: 12GB くらいのようです。
  • 学習の際の検証データ数をデフォルトで0に変更し、また検証データ数を学習用WebUIで指定できるようにした
  • Tensorboardのログ間隔を学習用WebUIで指定できるようにした
  • UIのテーマをcommon/constants.pyGRADIO_THEMEで指定できるようにした

バグ修正

  • JP-Extra使用時にバッチサイズが1だと学習中にエラーが発生するバグを修正
  • 「こんにちは!?!?!?!?」等、感嘆符等の記号が連続すると学習・音声合成でエラーになるバグを修正
  • (em dash, U+2014) や (quotation dash, U+2015) 等のダッシュやハイフンの各種変種が、種類によって-(通常の半角ハイフン)に正規化されたりされていなかったりする処理を、全て正規化するように修正

v2.1 (2024-02-07)

変更

  • 学習の際、デフォルトではbfloat16オプションを使わないよう変更(学習が発散したり質が下がることがある模様)
  • 学習の際のメモリ使用量を削減しようと頑張った

バグ修正や改善

  • 学習WebUIからTensorboardのログを見れるように
  • 音声合成(やそのAPI)において、同時に別の話者が選択され音声合成がリクエストされた場合に発生するエラーを修正
  • モデルマージ時に、そのレシピをrecipe.jsonファイルへ保存するように変更
  • 「改行で分けて生成」がより感情が乗る旨の明記等、軽微な説明文の改善
  • ーーそれは面白い」や「なるほど。ーーーそういうことか。」等、長音記号の前が母音でない場合、長音記号でなくダッシュの勘違いだと思われるので、ダッシュ記号として処理するように変更

v2.0.1 (2024-02-05)

軽微なバグ修正や改善

  • スタイルベクトルにNaNが含まれていた場合(主に音声ファイルが極端に短い場合に発生)、それを学習リストから除外するように修正
  • colabにマージの追加
  • 学習時のプログレスバーの表示がおかしかったのを修正
  • デフォルトのjvnvモデルをJP-Extra版にアップデート。新しいモデルを使いたい方は手動でこちらからダウンロードするか、python initialize.pyをするか、このbatファイルStyle-Bert-VITS2フォルダがある場所(インストールbatファイルとかがあったところ)においてダブルクリックしてください。

v2.0 (2024-02-03)

大きい変更

モデル構造に Bert-VITS2の日本語特化モデル JP-Extra を取り込んだものを使えるように変更、事前学習モデルBert-VITS2 JP-Extraのものを改造してStyle-Bert-VITS2で使えるようにしました (モデル構造を見直して日本語での学習をしていただいた @Stardust-minus 様に感謝します)

  • これにより、日本語の発音やアクセントや抑揚や自然性が向上する傾向があります
  • スタイルベクトルを使ったスタイルの操作は変わらず使えます
  • ただしJP-Extraでは英語と中国語の音声合成は(現状は)できません
  • 旧モデルも引き続き使うことができ、また旧モデルで学習することもできます
  • デフォルトのJVNVモデルは現在は旧verのままです

改善

  • Merge.batで、声音マージを、より細かく「声質」と「声の高さ」の点でマージできるように。

バグ修正

  • PyTorchのバージョンに由来するバグを修正(torchのバージョンを2.1.2に固定)
  • (ダッシュ、長音記号ではない)が2連続すると学習・音声合成でエラーになるバグを修正
  • 「三円」等「ん+母音」のアクセントの仮名表記が「サネン」等になり、また偶にエラーが発生する問題を修正(「ん」の音素表記を内部的には「N」で統一)

v1.3 (2024-01-09)

大きい変更

  • 元々のBert-VITS2に存在した、日本語の発音・アクセント処理部分のバグを修正・リファクタリング
    • 車両シャリヨオ思うオモオ見つけるミッケル等に発音・学習されており、その単語以降のアクセント情報が全て死んでいた
    • 私はそれを見るのアクセントがワ➚タシ➘ワ ソ➚レ➘オ ミ➘ルだったのをワ➚タシワ ソ➚レオ ミ➘ルに修正
    • 学習・音声合成で無視されていたアルファベット・ギリシャ文字を無視しないように変更(基本はアルファベット読みだけど簡単な単語は読めるらしい、学習の際は念のためカタカナ等にしたほうがよいです)
    • 修正の影響で、前処理時に(今まで無視されていた)読めない漢字等で引っかかるようになりました。その場合は書き起こしを確認して修正するようにしてください。
  • アクセントを調整して音声合成できるように(完全に制御できるわけではないが改善される場合がある)。

これまでのモデルもこれまで通り使え、アクセントや発音等が改善される可能性があります。新しいバージョンで学習し直すとより良くなる可能性もあります。が劇的に良くなるかは分かりません。

改善

  • Dataset.batの音声スライスと書き起こしをよりカスタマイズできるように(スライスの秒数設定や書き起こしのWhisperモデル指定や言語指定等)
  • Style.batのスタイル分けで、スタイルごとのサンプル音声を指定した数だけ複数再生できるように。また新しい次元削減方法(UMAP)と新しいスタイル分けの方法(DBSCAN)を追加(UMAPのほうがよくスタイルが分かれるかもしれません)
  • App.batでの音声合成時に複数話者モデルの場合に話者を指定できるように
  • colabのノートブックで、音声ファイルのみからデータセットを作成するオプション部分を追加
  • クラウド実行等の際にパスの指定をこちらでできるように、パスの設定をconfigs/paths.ymlにまとめた(colabのノートブックもそれに伴って更新)。デフォルトはdataset_root: Dataassets_root: model_assetsなので、クラウド等でやる方はここを変更してください。
  • どのステップ数の出力がよいかの「一つの」指標として SpeechMOS を使うスクリプトを追加:
python speech_mos.py -m <model_name>

ステップごとの自然性評価が表示され、mos_resultsフォルダのmos_{model_name}.csvmos_{model_name}.pngに結果が保存される。読み上げさせたい文章を変えたかったら中のファイルを弄って各自調整してください。あくまでアクセントや感情表現や抑揚を全く考えない基準での評価で、目安のひとつなので、実際に読み上げさせて選別するのが一番だと思います。

  • 学習時のウォームアップオプションを機能するように( @kale4eat 様によるPRです、ありがとうございます!)。前処理時に生成されるconfig.jsontrainwarmup_epochsを変更することで、ウォームアップのエポック数を変更できます。デフォルトは0で今までと同じ学習率の挙動です。

その他

  • Dataset.batの音声スライスでノーマライズ機能を削除(学習前処理で行えるため)
  • Train.batの音量ノーマライズと無音切り詰めをデフォルトでオフに変更
  • 学習時の進捗を全体エポック数で表示し、学習全体の進捗を見やすいように( @RedRayz 様によるPRです、ありがとうございます!)
  • その他バグ修正等( @tinjyuu 様、 @darai0512 様ありがとうございます!)
  • config.jsonにスタイル埋め込み部分を学習しないfreeze_styleオプションを追加(デフォルトはfalse

TIPS

  • 日本語学習の場合、config.jsonfreeze_bertfreeze_en_berttrueにしておくと、英語と中国語の発話能力が学習の過程で落ちないかもしれませんが、あまり比較していなので分かりません。

v1.2 (2023-12-31)

  • グラボがないユーザーでの音声合成をサポート、Install-Style-Bert-VITS2-CPU.batでインストール。
  • Google Colabでの学習をサポート、ノートブックを追加
  • 音声合成のAPIサーバーを追加、python server_fastapi.pyで起動します。API仕様は起動後に/docsにて確認ください。( @darai0512 様によるPRです、ありがとうございます!)
  • 学習時に自動的にデフォルトスタイル Neutral を生成するように。特にスタイル指定が必要のない方は、学習したらそのまま音声合成を試せます。これまで通りスタイルを自分で作ることもできます。
  • マージ機能の新規追加: Merge.bat, webui_merge.py
  • 前処理のリサンプリング時に音声ファイルの開始・終了部分の無音を削除するオプションを追加(デフォルトでオン)
  • スタイルテキスト (style text)がスタイル指定と紛らわしかったので、アシストテキスト (assist text)に変更
  • その他コードのリファクタリング

v1.1 (2023-12-29)

  • TrainとDatasetのWebUIの改良・調整(一括事前処理ボタン等)
  • 前処理のリサンプリング時に音量を正規化するオプションを追加(デフォルトでオン)

v1.0 (2023-12-27)

  • 初版