Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

可以提供一下微调的checkpoint吗? #1

Open
shishijier opened this issue Jun 15, 2024 · 5 comments
Open

可以提供一下微调的checkpoint吗? #1

shishijier opened this issue Jun 15, 2024 · 5 comments

Comments

@shishijier
Copy link

我是kdd比赛组织人员,为了复现下最终结果。

@loveisp
Copy link
Owner

loveisp commented Jun 15, 2024

您好,预训练模型可以直接从huggingface下载,链接在:https://github.com/loveisp/KDD_2024_AQA/tree/main/infer_with_pretrained 这里给出了。

微调后的模型的 lora 在这里:https://github.com/loveisp/KDD_2024_AQA/tree/main/finetune/sfr_finetuned ,按照:https://github.com/loveisp/KDD_2024_AQA/tree/main/finetune 给出的方法合并模型并做推断即可。

@loveisp
Copy link
Owner

loveisp commented Jun 16, 2024

您好,合并后的模型权重可以从百度网盘下载:
链接:https://pan.baidu.com/s/1LdKujPgDGkrFXrB6MFf8ZA?pwd=gf1j
提取码:gf1j
我也已经在 finetune 里的 README.md 做了更新

@loveisp
Copy link
Owner

loveisp commented Jun 16, 2024

另外还有一些得到最后预测所需要的中间数据文件(主要是 faiss 计算得到的 D 和 I 矩阵),我也放到了百度网盘:
链接:https://pan.baidu.com/s/1AqCOlq_gYXwabP3fxy5PtQ?pwd=tq6n
提取码:tq6n
以及在 predict 的 README.md 做了更新

@shishijier
Copy link
Author

另外还有一些得到最后预测所需要的中间数据文件(主要是 faiss 计算得到的 D 和 I 矩阵),我也放到了百度网盘: 链接:https://pan.baidu.com/s/1AqCOlq_gYXwabP3fxy5PtQ?pwd=tq6n 提取码:tq6n 以及在 predict 的 README.md 做了更新

好的,都已经看到。
另外问一下,你们有测试 微调后的SFR-Embedding-Mistral 和 SFR-Embedding-Mistral、NV-Embed-v1、GritLM-7B、Linq-Embed-Mistral 这五个模型中,哪两个模型预测结果分数最高呢?

@loveisp
Copy link
Owner

loveisp commented Jun 17, 2024

五个模型在两个阶段的分数如下表所示:

模型 第一阶段分数 第二阶段分数
SFR-Embedding-Mistral 0.20891 0.18659
GritLM-7B 0.20825 0.18622
Linq-Embed-Mistral 0.21208 0.18925
NV-Embed-v1 0.21088 0.18315
微调后的SFR-Embedding-Mistral 0.23160 0.17968

奇怪的一点是:微调后的SFR-Embedding-Mistral在第一阶段的分数很高,但在第二阶段分数又比其他模型低,是因为过拟合了吗?
然而在加权融合多个模型的预测结果时,微调后的SFR-Embedding-Mistral在两个阶段都是占比较大的时候分数最高。我第二阶段分数最高的提交中,微调后的SFR-Embedding-Mistral的权重占到了0.65,其他几个模型的权重加起来也只有0.35。
我计算了这些模型的预测的相关性矩阵,微调后的SFR-Embedding-Mistral确实和其他模型的相关性比较低,只有0.5左右,其他模型之间的相关性可以到0.65甚至更高,这可能是融合时微调后的SFR-Embedding-Mistral的权重需要比较大的原因之一。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants