Skip to content
This repository has been archived by the owner on Feb 11, 2024. It is now read-only.

Releases: Yukaryavka/rinna_gpt-neox_ggml-lora

v1.0.0

24 May 20:42
a5547c3
Compare
Choose a tag to compare

merge_gptneox_lora.py - v1.0.0 リリース

成果報告を挙げたのとmerge_gptneox_lora.pyを使用し続けて問題なく動作している為、リリース扱いにしておきます。v0.1.0とコードは同じですが、README.mdに"成果報告"が追加されています。

v0.1.0

24 May 07:41
255c2ae
Compare
Choose a tag to compare
v0.1.0 Pre-release
Pre-release

merge_gptneox_lora.py - 初版 v0.1.0 プレリリース

リファレンス

※マージスクリプトを公開しましたが、マージモデルの検証進行中です。正しくマージできているかどうかや既知の問題といった全容をまだ把握出来ていません。
問題報告やディスカッションを行いたい方は"issues"もしくは"discussions"をご利用ください。

  • コマンドライン例
python3 merge_gptneox_lora.py base_model_name lora_model_name output_dir
  • base_model_name
    LoRAをマージするベースモデル名・ディレクトリパス・huggingFaceリポジトリ名を定義する。 / 例: rinna/japanese-gpt-neox-3.6b-instruction-sft

  • lora_model_name
    ベースモデルにマージするLoRAモデルのディレクトリパスを定義する。(基本的には "adapter_model.bin" と "adapter_config.json" が格納されているディレクトリへのパスを設定する)

  • output_dir
    ベースモデルとLoRAモデルがマージされたpytorch_model.binとconfig.json郡を格納するディレクトリを定義する。