Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

能否提供一下测试数据集 #1

Closed
1632325673 opened this issue Nov 20, 2021 · 25 comments
Closed

能否提供一下测试数据集 #1

1632325673 opened this issue Nov 20, 2021 · 25 comments

Comments

@1632325673
Copy link

你好,请问方便提供一下HCP-1200预处理过的测试集吗

@iwuqing
Copy link
Owner

iwuqing commented Nov 20, 2021

预处理后的HCP-1200数据链接在这里:https://drive.google.com/file/d/1xAAAPM3QBM6xxswdrVHb8auyECNrVdvz/view?usp=sharing

@1632325673
Copy link
Author

1632325673 commented Nov 20, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 20, 2021

由于测试集中是完整的图像,而非训练集和验证集中的patch。因此,测试集体积较大(222个图像,GT图像共计5GB)。这里我刚上传了GT图像(LR图像你可以按照原文生成):https://drive.google.com/file/d/1lSfv6SuMVO3FiNfEMh6uvmRDxjplze-q/view?usp=sharing

@1632325673
Copy link
Author

1632325673 commented Nov 20, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 20, 2021

不客气:)

@iwuqing iwuqing closed this as completed Nov 20, 2021
@1632325673
Copy link
Author

1632325673 commented Nov 22, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 22, 2021

  • 问题1、2:我只提供hr_train和hr_val的原因是:lr图像是在训练的时候随机一个scale下采样生成的 (这部分代码在https://github.com/iwuqing/ArSSR/blob/main/data.py30—38行),因此对于train_loader和val_loader,我们只需要提供高清patch即可。
  • 问题3:测试集中的GT的size都是裁剪填充后的264×264×264。为了方便后续定量化计算:对于可整除的scale,直接下采样即可;对于不可整除的scale,需要对264×264×264的GT图像进行进一步的裁剪再下采样。比如对于scale=2,我们不需要进行裁剪;而对于scale=2.5这种,需要先裁剪到260×260×260,再进行下采样。

@1632325673
Copy link
Author

1632325673 commented Nov 22, 2021 via email

@1632325673
Copy link
Author

1632325673 commented Nov 23, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 23, 2021

是直接对3D图像进行下采样,用的是这个第三方库,其中order=3,其余参数默认 scipy.ndimage.interpolation.zoom。关于裁剪,直接进行数组裁剪即可,这部分可以参考https://github.com/iwuqing/ArSSR/blob/main/data.py 的30—38行

@1632325673
Copy link
Author

1632325673 commented Nov 28, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 28, 2021

我只下载了T1w的图像,别的模态并没下载。

@1632325673
Copy link
Author

1632325673 commented Nov 28, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 28, 2021

t1的所有图像共计1112张,共计20G,恐怕不太方便传输。太大了。我之前是用这个脚本进行下载的:https://github.com/huawei-lin/HCP_Dataset_Download_Automatically_Script

@1632325673
Copy link
Author

1632325673 commented Nov 28, 2021 via email

@1632325673
Copy link
Author

1632325673 commented Nov 29, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 29, 2021

因为在test的时候,输入的是图像patch。而在test的时候,输入的是完整图像,实际上占显存的部分在encoder部分。你可以用比较小的图像进行test,或者一个一个patch重建后再拼接。

@1632325673
Copy link
Author

1632325673 commented Nov 29, 2021 via email

@iwuqing
Copy link
Owner

iwuqing commented Nov 29, 2021

你把邮箱留一下,我回头找个时间上传网盘发你链接。因为分享原始数据集可能会涉及到license的问题。

@1632325673
Copy link
Author

1632325673 commented Nov 30, 2021 via email

@hongtao-gg
Copy link

可以发给我一份吗,t1的所有图像共计1112张,共计20G 邮箱: 454191383@qq.com 我用您的脚本下载下来有300多个G,感觉不太对

@iwuqing
Copy link
Owner

iwuqing commented May 29, 2023

可以发给我一份吗,t1的所有图像共计1112张,共计20G 邮箱: 454191383@qq.com 我用您的脚本下载下来有300多个G,感觉不太对

已发你邮箱

@hongtao-gg
Copy link

作者您好,我用您发的脚本下载的HCP_1200 t1w的图像数据,尺寸大小为(260,311,260),并不是您论文里尺寸为(320320256)您可以再提供一下HCP-1200 T1W的原始数据的网盘链接吗(之前的过期了)。第二个问题是,您是如何讲图片裁剪到264264264的?万分感谢您可以抽空回答我。邮箱:454191383@qq.com

@yaoxiongya
Copy link

作者您好,可以发给我一份您预处理后的数据吗,t1的所有图像共计1112张,共计20G 邮箱:1720886097@qq.com

@iwuqing
Copy link
Owner

iwuqing commented Sep 14, 2023

作者您好,可以发给我一份您预处理后的数据吗,t1的所有图像共计1112张,共计20G 邮箱:1720886097@qq.com

你好,你可以从以下百度网盘链接下载~
链接:https://pan.baidu.com/s/1ivy8TXUIO2nW35XK2ThafA
提取码:8m67

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants