-
Notifications
You must be signed in to change notification settings - Fork 1.9k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
模型融合之后,采用llama.cpp 进行推理,输入中文后按回车没有反应,光标仍然在当前这行 #315
Comments
卡好几分钟不太正常,看你的log应该是7B-Q4_0的模型,不至于写个“你好”就卡这么长时间。你pull一下最新的llama.cpp代码重新编译一下试试呢?
|
pull 之后显示已经是最的了, 我按下回车之后,任务管理器里的资源使用情况没有啥变化,感觉不是慢,而是输入没有提交给模型 |
最小化原则,把几个参数调小一点
如果可以正常使用,再把-c -n调高。-b其实没什么用处,除了BLAS加速(但你的log里显示为0)。 |
似乎换了个界面,是换到windows下了还是这样吗?最开始的图应该是linux下的吧? |
一直都是win11, 第一个截图是 window terminal (powershell ), 后边这个就是 cmd hello 也一样卡住。 |
可以去llama.cpp那边问一下 |
我也是一样,用的是别人量化后的模型,改了很多参数,调大调小也不行,两台win10都是这样 |
@zhiyixu 谢谢老哥,已经解决,换了windows哪个版本的llama可以了,不过他哪个版本少引入一个#include ,7b速度还可以 感谢 |
@a108599 “他哪个版本少引入一个#include” 哥们问下你说的这个在哪里, 我没遇到这个问题。 |
我试了7B和13B的,暂时没这问题, 7B写快排答非所问,13B能正常写出代码, 上述只是少了locale库导致make无法编译成功,你的问题应该跟这没关系,你可以试试issue204里面的量化模型 |
@a108599 哥们你的模型是自己合并量化的还是直接用的上边这个老哥提供的? |
@zhiyixu 直接用上面那个的 |
好的,多谢 |
详细描述问题
请尽量具体地描述您遇到的问题。这将有助于我们更快速地定位问题所在。
模型融合之后,采用llama.cpp 进行推理,输入中文后按回车没有反应,光标仍然在当前这行
运行截图或log
已经在这里卡了好几分钟了,是单纯的慢吗?
必查项目
[ x ] 哪个模型的问题:Alpaca , 我合并用的lora模型是 alpaca-plus-lora-7b 所以这里是填写 alpaca 吗?
[ x ] 问题类型:
[ x ] 由于相关依赖频繁更新,请确保按照Wiki中的相关步骤执行
[ x ] 我已阅读FAQ章节并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案
[ x ] 第三方插件问题:例如llama.cpp、text-generation-webui、LlamaChat等,同时建议到对应的项目中查找解决方案
我又看到关于终端类型的问题, 我尝试过 cmd, git bush, powershell, 都是这样, 就一直卡在那里。
The text was updated successfully, but these errors were encountered: