-
Notifications
You must be signed in to change notification settings - Fork 429
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
TensorRT-LLM的支持在计划中吗 #132
Comments
目前直接用GLM-3的转换GLM-4的就行了吧 |
@zRzRzRzRzRzRzR 谢谢,用上 |
不能直接一个字不改,,还是要参考我们的demo的,stop id 有三个哈 |
这里三个stop_id是为什么;对于TensorRT-LLM,在推理的时候,SamplingConfig 只接受一个 int 类型的 在我的简单尝试中,在三个stop id选一个给到 即,如果只把 在给了
|
如果只能写一个,都用<|user|> |
glm-4v-9b可以转换吗? |
可以,但是tensorrt-llm不支持多模态。 |
没太明白,glm-4v-9b不就是多模态的模型吗? |
glm-4v-9b模型多一个输入
|
意思是只转换了LLM的部分?那转换后还能正常使用吗? |
无法接受图片输入,其他应该正常。 |
trt-llm只支持我们的chat模型,视觉模型还没有支持 |
@HLSS-Hen 你好,请问你有没有尝试glm4用trt-llm进行awq量化,我这边量化之后推理结果为乱码 |
@15929482853 我这里实测没有太大问题,你可能没有正确使用tokenizer或者提供了错误的采样参数。 一些细节:
魔改下部分package代码:
然后执行量化和构建
简单测试:
|
看了一下,我们的流程是一样的,我这块没什么问题。 |
如果把 glm-4v-9b 拆成 2个部分,一个是前面的 vit,获得 image embedding,然后把 images:torch.Tensor 合并到 input_ids 模块,可以复用 chat 模型吗?这样是不是可以直接使用 trtllm 的 glm4 ? |
@scdotbox 不可行,图像的嵌入,不是嵌入为 |
从GLM到chatGLM3都提供了TensorRT-LLM的支持,请问这代模型是否会继续提供
The text was updated successfully, but these errors were encountered: