Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

RTDETR模型训练异常,使用预训练权重(默认配置)验证AP值保持为0,但是损失较低,且无法收敛 #8464

Open
1 task done
jkgjhfghdgfscv opened this issue Jul 23, 2023 · 1 comment
Assignees
Labels
question Further information is requested

Comments

@jkgjhfghdgfscv
Copy link

问题确认 Search before asking

  • 我已经搜索过问题,但是没有找到解答。I have searched the question and found no related answer.

请提出你的问题 Please ask your question

在使用RE DETR训练一个数据集的时候,发现您给出的配置在使用预训练权重(默认配置)的情况下,验证AP值在几轮后突然降为0,且一直保持为0。更加令人费解的是总损失维持在22,不算太高。最令人费解的是,RT DETR所有的config都是这样。分析了一些原因,但是均不符合。
1.数据存在问题。排除掉,因为自己用过很多算法去跑这个数据集,都是正常的。并且您的算法在前几轮是表现正常的,只是突发性的降为了0,无法跳出0.
2.算法过拟合,正如上面所说的现象,RT DETR的表现已经超出了一般的过拟合。
3.在不使用预训练权重的前提下,算法收敛缓慢,但收敛正常。但是在您的训练计划下可能无法收敛出非常优异的结果。结合您的论文的优异效果,最后的结果用于学术性的对比很可能是令人疑惑的。

@jkgjhfghdgfscv jkgjhfghdgfscv added the question Further information is requested label Jul 23, 2023
@lyuwenyu
Copy link
Collaborator

lyuwenyu commented Jul 24, 2023

其他pr代码引入了bug , 正在修复
#8465
#8409

  1. 有人遇到和你同样的问题 例如, 在原始的试验代码没问题
  2. 预训练的问题 首先排除上面的bug问题 加载预训练也是follow detr系列的默认设置 (个人认为收敛性涉及到 匹配 数据增强 transformer与cnn收敛性 优化器 等方面)

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
question Further information is requested
Projects
None yet
Development

No branches or pull requests

2 participants