New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
推理参数如何设置才能复现最佳效果 #5
Comments
同问,对话或指令的模板怎么设置比较好啊 |
从 README 看这个模型应该是一个 pretrain 模型,类似于 LLaMA。 如果用在对话上,可能还需要使用中文对话数据集以及指令数据集进行 SFT ,否则效果可能不会太好。 |
感觉上是个basemodel 没有指令微调呢。 |
是 base model,未SFT, 自己训练了SFT的对话数据,才有对话能力。 |
是的 |
怎么加载到text-generation-webui中的呢,直接放到models里面, python server.py --model baichuan-7B --chat --n-gpu-layers 200 启动会报错呢: |
|
你好,请教一下,如果我想用他做信息提取,从一段话里提取出一个包含指定字段的json,是不是需要先进行指令集训练? |
使用text-generation-webui,加载模型进行推理,chat 模式,parameters 为 LLaMA-Precise,
英文得不到应答,请问这是正确的推理方式吗?
The text was updated successfully, but these errors were encountered: