-
Notifications
You must be signed in to change notification settings - Fork 416
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
有GLM在 CMRC上下游fine-tuned 之后的模型吗? #173
Comments
您好,
|
作为生成器 解码段在长文本上会具有一定的优势,而在唯一短span抽取上对于抽取式未必有优势。 |
根据这段代码 source_tokens = [cls_id] + question_tokens + [
mask_id
] + source_tokens[:max_src_length] prompt中 “答案:" 后面直接跟 "MASK" 没有中括号 之后直接是context了是吗? |
并不像你在数据集预处理文档中描述的有 “背景信息:”的输入文本作为prompt构成。 |
https://github.com/FlagAI-Open/FlagAI/blob/master/docs/TUTORIAL_2_DATASET.md里的是提示学习的数据处理方式, |
没有用到提示学习 但在你的数据预处理函数中将数据用了 question_tokens = self.tokenizer.EncodeAsIds("问题:" + question +
"答案:")
source_tokens = [cls_id] + question_tokens + [
mask_id
] + source_tokens[:max_src_length] 这种提示学习的编码方式,所以在估计的时候也要进行相同处理,但你没有给出 背景信息(或上下文)与前面的明确间隙(这里是MASK作为分隔),这种处理总感觉有些别扭。 |
实际在MRC任务上微调的过程,就是把blank filling QA换了一副固定模版 这个固定模版就是 |
好的,感谢反馈,您是怎么测试的呢 |
1、如题 有在阅读理解上调试后的模型吗?
2、而且 predictor 构造的模版分布于collect_fn中
是否考虑将这部分做文档进行说明。
3、数据集的导入和预处理是依赖于具体数据集名称 而不依赖于更一般的任务格式和数据集格式 会增加用户模仿数据集输入格式的成本。
The text was updated successfully, but these errors were encountered: