-
Notifications
You must be signed in to change notification settings - Fork 1.5k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
代码调用model.chat(tokenizer, "你好") 错误,数组越界?Assertion srcIndex < srcSelectDimSize
failed.
#243
Comments
srcIndex < srcSelectDimSize
failed.srcIndex < srcSelectDimSize
failed.
开启CUDA_LAUNCH_BLOCKING调试 错误位置补充: |
收到问题,该问题影响使用,我们正在安排人员解决 |
好的,谢谢 |
是否可以将 |
输入对话框历史就是一个 “你好”,使用代码 response, history = model.chat(tokenizer, "你好") 直接就报错 系统配置参数如下: |
补充一下,我刚才下载了chatglm2模型,发现response, history = model.chat(tokenizer, "你好")没有报错,所以可以排除环境因素导致的错误,更多是chatglm3上的问题 |
我的代码很简单,就是样例代码,有涉及对话格式的吗? input_ids.tolist()这个input_ids是在内部类库报错的,我不知道哪里能引用这个input_ids对象 |
遇到相同问题
|
我也出现了这个问题,时不时就会出现 |
我是100%重现,不是偶现 |
该问题已经被记录为bad case,应该是模型层面的问题,如果与 #393 相似,可以在其下补充,或者提出一个新的bad case |
是否有人可以给出一组失败时的 |
是否可以写一个例子,input_ids是底层对象,我不知道怎样调用 input_ids.tolist() |
你用window11测试一下glm3,我觉得是100%出现的问题,你们都是在ubuntu测试的? |
似乎,到现在还是没有解决这个问题的一些手段。 |
我在4090上出现的,a6000没有出现 |
4090上单张卡启动没问题,多张卡启动有问题 |
我也出来了一样的问题 单卡A100行 多卡就不行了 |
我也出现了这个问题了,api调用次数多了就会直接报错了。 |
需要重启后才能正常使用模型,是因为输入的token过大吗?我们是用对话文本做提炼的,输入数量过大 |
你好,该问题您有解决的方案吗?我也遇到了。。 |
一样的问题,用model.stream_chat流输出字符串没问题,用model.chat整段字符串输出就报错,断点到源码看,看起来像是数组越界
调试代码得知:
错误文件:.cache\huggingface\modules\transformers_modules\local\modeling_chatglm.py
代码错误行:723行代码报错 words_embeddings = self.word_embeddings(input_ids)
错误信息:pytorch\pytorch\builder\windows\pytorch\aten\src\ATen\native\cuda\Indexing.cu:1239: block: [28,0,0], thread: [63,0,0] Assertion
srcIndex < srcSelectDimSize
failed.CUDA error: device-side assert triggered
Compile with
TORCH_USE_CUDA_DSA
to enable device-side assertions.The text was updated successfully, but these errors were encountered: