New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
作者您好。关于epoch的问题想要咨询一下您。 #1
Comments
hi, 您好,感谢关注。
|
非常感谢您的回复。后续我设置更多的训练次数(max_epoch=1000),T-CE的结果是Recall:0.1249-0.1945,NDCG:0.0522-0.0679,而基本的CE的结果是Recall:0.1080-0.1750,NDCG:0.0431-0.0580。我还有一点小的疑问想咨询一下作者。通过完整的运行日志,我发现模型在验证集上的损失明显高于在训练集上的损失。具体来说,训练集上的损失非常接近于0,而在验证集上的损失却可以高达三四百,由于我对这方面了解不多,想请教一下作者为什么会有这么大的差别。 |
@BlueGhostZ @WenjieWWJ |
非常抱歉之前没有注意到这个issue的后续进展。
|
作者您好。我运行了你开源的代码,有一些疑惑想要咨询一下您。
1、我在Yelp数据集上运行了GMF+T-CE模型,具体的参数设置是:batch_size=1024, dataset='yelp', drop_rate=0.2, dropout=0.0, epochs=10, eval_freq=2000, exponent=1, factor_num=32, gpu='3', lr=0.001, model='GMF', num_gradual=30000, num_layers=3, num_ng=1, out=True, top_k=[50, 100],这些都是默认的设置,我仅仅改变了训练次数epoch,即epoch =[10, 20, 30],训练10个epoch时,Recall=[0.0875, 0.1452], NDCG=[0.0357,0.0487]; 训练20个epoch时,Recall=[0.0941,0.1550], NDCG=[0.0382,0.0520];训练30个epoch时,Recall=[0.1021,0.1649], NDCG=[0.0420,0.0562]。可以看到性能还是一直在大幅上升状态,即训练10个epoch并没有让模型达到收敛状态。我观察了论文中实验结果表3,其中的实验结果与epoch=10时的基本一致,这样的对比是否有失公允呢?
2、虽然代码中设置了固定的随机数种子,但每次实验结果似乎都不同,并且和论文中的结果对不上,是因为多次取平均的结果吗?
非常感谢您在百忙之中阅读我的问题,期待您的回复。 @WenjieWWJ
The text was updated successfully, but these errors were encountered: