New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
第六章默认代码运行猫狗大战,损失降低到接近0,验证集准确率依然是50% #23
Comments
损失在0.69左右 说明完全没效果 (log 2 = 0.693)
|
您好,我运行了第六章的代码,并将训练集从2000改到20000但是输出的结果一直都是0.9999...请问究竟是什么原因呢?我该怎么改进? [25391, 0.9999626874923706] |
这个0.99 是什么意思? |
write_csv(results,opt.result_file) |
嗯嗯, 我发现新版的默认参数有点问题(学习率和weight_decay太大),我这几天再看看。你可以把学习率改成0.001,lr_decay改成0.5,weight_decay改成0看看。 |
OK |
把学习率改成0.001,lr_decay改成0.95.跑100个epoch ,验证集可以跑到97%左右。亲测~ |
@bobo0810 能否把你的训练loss图贴出来, 看一下是在哪里开始突破0.69. 我改成你说的参数, 可loss还是在0.69. |
我把batch size从4 (#37) 增加到32,就开始突破0.69了. |
@bobo0810 学习率改成0.001,lr_decay改成0.95.跑100个epoch ,测试集每张图概率仍然都是0.5左右啊?是过拟合了?还是梯度消失? |
@nemonameless
|
@bobo0810 谢谢,你的是 max_epoch = 100吧?。。我是阿里云主机训练过程还没可视化,你这是之前跑成功的吧,最近不知道作者有改动什么地方没。我参数基本就是按照作者的默认设置的,lr_decay =0.95是跟你一样的,作者默认lr_decay=0.5也试过了,但都是训练后在测试集上表现不太正常啊,每张图测试都是0.49左右,跟随机猜测没区别,不知道为什么? |
@nemonameless 对,跑了0.97 |
@bobo0810 你好,我用的第六章,0.3分支的代码,训练过程中报错,一直没解决,能帮忙看下嘛,谢谢。 |
@qingfenghcy Permission denied: 是不是权限问题?你的checkpoints文件夹跟整个项目代码在一个目录下吗? |
@bobo0810 我知道了。。。谢谢,我把数据放到root账户下了。。。谢谢,解决了 |
Alexnet的lr=0.001也还是太高了 我调到5e-5才能有效下降loss epoch在40时loss能小于0.2 |
我也出现了相同的问题,loss一直在0.693左右。 |
可能是 随机梯度下降 这个优化器不太合适,我用SGD导致loss一直在0.693,改用作者的Adam,没有发现这个loss问题。 |
Traceback (most recent call last): |
@nemonameless 你好,我也出现了这个问题,loss一直在下降,验证集的准确率也在不断上升,但是测试集就崩了,全是0.5左右…… |
我找到问题所在了:README文档给出的测试命令不对,预训练模型应该使用 |
您好。我用第六章代码运行猫狗大战,损失降低到接近0,验证集准确率依然是50%。
请问这个现象是不是过拟合?这个示例代码出现这样的结果是正常的么?我应该在哪几方面尝试改进呢?
谢谢老师
The text was updated successfully, but these errors were encountered: