Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

后面有计划开源finetuning的代码吗,以及会尝试LoRA吗 #3

Closed
TccccD opened this issue Mar 20, 2023 · 8 comments
Closed
Labels
enhancement New feature or request

Comments

@TccccD
Copy link

TccccD commented Mar 20, 2023

No description provided.

@Life-0-1
Copy link
Collaborator

我们正在整理代码,后续会开源。目前很多开源的finetune decoder-only模型的代码就可以用于finetune我们的模型,如果你急着训练,可以先用这些代码,同时把其中的checkpoint替换成我们的开源模型即可。

我们目前没有尝试LoRA的计划。

@ScottishFold007
Copy link

lora的我跑过,不是很行,模型一大,loss就急剧变为0,eval loss是nan满全场

@TccccD
Copy link
Author

TccccD commented Mar 20, 2023

我们正在整理代码,后续会开源。目前很多开源的finetune decoder-only模型的代码就可以用于finetune我们的模型,如果你急着训练,可以先用这些代码,同时把其中的checkpoint替换成我们的开源模型即可。

我们目前没有尝试LoRA的计划。

感谢回复!想问下训练bloom7B用了多少卡

@BowieHsu
Copy link

@TccccD 我自己复现了stanford的训练,4*A100 1个半小时

@TccccD
Copy link
Author

TccccD commented Mar 20, 2023

@TccccD 我自己复现了stanford的训练,4*A100 1个半小时

是指用stanford的训练方式训练Bloom7B吗,还是LLaMA

@ScottishFold007
Copy link

@TccccD 我自己复现了stanford的训练,4*A100 1个半小时

是指用stanford的训练方式训练Bloom7B吗,还是LLaMA

是5万条英文prompt数据那个吧?这个还是有可能的

@BowieHsu
Copy link

@ScottishFold007 是的

@barius barius added the enhancement New feature or request label Mar 20, 2023
@feizc
Copy link

feizc commented Mar 22, 2023

Hi, 感谢作者对于数据和模型的开源。

全模型微调和lora脚本可以参考: https://github.com/feizc/MLE-LLaMA

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
enhancement New feature or request
Projects
None yet
Development

No branches or pull requests

7 participants