New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Accuracy during training #55
Comments
请问您把字母表扩大为多大呢?我看了最近的论文的结果,都是去除了符号进行评估的,加上符号评估应该会更低些。可以请教您吗:您是要做现有技术的应用,还是前沿研究呢? |
Hi: @Canjie-Luo Line 101 in 08713b0
Thanks! |
因为训练的时候,用的是前一个step的label作为语义信息。 |
Hi: @Canjie-Luo |
Hi: @Canjie-Luo Line 26 in 08713b0
这里的self.dict{}中value为0的key是字母表中的'a',请问哪里体现了保留0为blank呢? thanks! |
上边讨论的问题,和字母表的次序无关,只是类别的一个embedding,作为语义信息而已。定义embedding时候是+1的,例如a->1,对应embedding矩阵的第1行,而不是第0行,那么后续操作就对应+1。 |
Hi:@Canjie-Luo |
😂客气了,这部分代码是继承CRNN的写法,忘记删除这个无关的注释了。您非常仔细,谢谢您。您可以pull request,成为一个contributor~ |
计算ctc loss需要输入稀疏矩阵,因此要把0留给blank,但是这里attention方法用交叉熵算loss,所以加不加1没关系 |
Hi:@Canjie-Luo
请问在readme里面展示的在IC15 (2077)上one-stage的准确率有73.9%是在CVPR和NIPS两个数据集上跑训练过程中得到的最高val结果吗?我现在也在这两个数据集上跑,虽然还没有跑完(还有70000次迭代),但是val最高只有66%,并且在这附近震荡.您有什么建议吗?
P.S:中间服务器断过一次,我接着最近保存的模型跑得,断之前也是在65%左右震荡.
P.S2:除了扩大了字母表其他没变化。
The text was updated successfully, but these errors were encountered: