-
Notifications
You must be signed in to change notification settings - Fork 152
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Hi tripletloss finetune的时候 怎样判断已经finetune好了? #15
Comments
同问,最近做了finetune发现效果由逐渐变好到逐渐变差,一开始ap是小于an的并且差距逐渐变大,后来ap和an就变得接近了。 |
Hi |
保险的话可以每隔几段iterations就存一下model,这个还真不好说,因为我跑到最后是变差的。每个人情况不同吧~对了我做的不是人脸,是印刷体汉字~ |
@thu-zxs 请通过最近的propsal进行finetune。 |
@pinguo-luhaofang 好的,我会继续尝试,谢谢! |
@yzk0281 loss就是模型的训练收敛程度的指标啊。 |
阿。。。不会吧 |
@yzk0281 ap和an距离拉大了,loss不可能不会降低的 |
额。。也就是说看ap和an的差距变化也是可以的么 |
@pinguo-luhaofang |
@thu-zxs 是的,就是对不满足aps[i][1] >= ans[i][1]的triplet反传梯度,回传满足aps[i][1] < ans[i][1]的triplet梯度。 |
嗯,方便问问其中的道理?我直观上看,不反传aps[i][1] >= ans[i][1]的样本对的梯度的话,那这个样本对不就得不到训练了? |
产生梯度的是 0 < an - ap < margin 的样本对,详情请参见论文。 |
好的谢谢@pinguo-luhaofang |
如果ap 〉 an的话 ,就是说正样本的距离比负样本还大,那样不是更应该训练么 ? |
@yzk0281 如果aps[i][1] > ans[i][1],那么其实选出来的这个三元组是没有意义的,所以不能回传。我是这么理解的 不知道对不对 |
@tanyuan1992 为何没有意义? |
是不是输出的ap小而an大即可?
有没有一个具体的指导值呢?
The text was updated successfully, but these errors were encountered: