-
Notifications
You must be signed in to change notification settings - Fork 10
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
About prob_model and training #3
Comments
我已收到你的邮件。 by 钱一琛
|
你好,
|
你好!感谢您的回复! 非常感谢您的工作!祝好! |
@mx54039q entroformer/module/entroformer_helper.py Line 115 in 1c359bf
|
你说的没错, 这一块看来是我的实现错误, 不过训练影响不大. 你可以修改一下, 如果有正向提升的话麻烦告知我一下, 谢谢. :) |
@mx54039q 我将图像输入域改为了[-1,1],筛选了1.5W张图片作为数据集,加载了您的权重,目前训练了两个模型,效果还不错。在Kodak上compress/decompress的结果如下: 我现在正在尝试您的random mask的pretrain方案。我修改了dk进行pretrain,然后看看finetune的效果如何,再与您交流^-^ |
你好!我在尝试您的项目时有几点疑问想要请教。
1、论文中写到超先验部分使用没有任何假设分布的channel-wise fully factorized density model。但在代码中的prob_model似乎是channel-wise 的高斯分布。 使用高斯分布有何优势?
2、我将entroformer 迁移到compressai框架下实验,训练集采用openimage的train_f并做了筛选,大约有9W张图片,以(384,384)的patchsize训练。网络输入范围为[0,1],超先验部分采用了 fully factorized density model,训练策略与您的实现相同。 加载了您的预训练模型进行训练,但效果不太理想,在Kodak上测试结果和Minnen (2018)差不多。 但相同的数据集在您的代码下训练效果就很好。想听听您的意见,不知道是不是fully factorized density model导致的
非常感谢您的工作!
The text was updated successfully, but these errors were encountered: