-
-
Notifications
You must be signed in to change notification settings - Fork 52
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于TensorRT-LLM接入LangChain #32
Comments
这个错误是因为openai的包最近更新到1.x了,改了调用方式,langchain那边没有更新导致的。 |
并且新版api_key为必填项目,可以给一个任意数值。 |
我看langchain-chatchat昨天更新到了0.2.7版本,或许 是更新了? |
建议检查一下langchain那边openai模块版本,应该是0.4.1才能跑,1.x是跑不了的。 |
还有一个就是TensorRT-LLM这边需要做端口映射,如果你的TensorRT-LLM部署不是本机,请你将127.0.0.1换成部署TensorRT-LLM所在服务器的ip,例如192.168.x.x |
关于这个 在部署tensor-llm +qwen的时候已经做了映射
|
个人感觉是127.0.0.1:8000不通导致的, 你可以看看TensorRT-LLM api.py启动后那边有收到langchain调用的日志吗?如果没有,请检查你langchain这边设置的ip |
我刚才怀疑是pydantic版本的原因,在langchain-chatchat 项目中,如果将pydantic升级到2.x,fschat和pydantic一直存在着冲突的问题,我可以请求一份你的pip requirements.txt看一下吗? |
从这里看TensorRT-LLM ip配置这块应该是没问题了,那就可能要看看 |
这个有可能是,不过我安装langchain的时候是直接按作者说的,用Python3.10.12版本,然后直接按照他提供的requerements.txt安装的包(确保openai版本是0.4.0)。我建议你用conda重新构建一个Python3.10.12的虚拟环境,再试一次。 |
参考了文档 https://github.com/Tlntin/Qwen-7B-Chat-TensorRT-LLM/blob/release/0.5.0/docs/trt_llm_deploy_langchain.md
langchain-chatchat-0.2.6版本
在保证api正常运行可以被调用(同容器docker测试,windows上的postman测试)
在导入langchain-chatchat时,得到了错误
定位到,或许是文档中下述部分的问题:
修改模型配置文件configs/model_config.py,修改OpenAI的url地址为你配置TensorRT-LLM api的地址
修改前
"OpenAI": {
"model_name": "your openai model name(such as gpt-4)",
"api_base_url": "https://api.openai.com/v1",
"api_key": "your OPENAI_API_KEY",
"openai_proxy": "",
},
修改后
"OpenAI": {
"model_name": "gpt-3.5-turbo",
"api_base_url": "http://127.0.0.1:8000/v1",
"api_key": "",
"openai_proxy": "",
},
The text was updated successfully, but these errors were encountered: