-
Notifications
You must be signed in to change notification settings - Fork 353
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
运行开始训练,卡住半小时,一直不动 #9
Comments
是否2007_train.txt里面没有目标信息 |
啥时候下的代码啊…… |
一周之前下的,数据也检查过了,没有空文件 |
要不重新下一下吧,你可能下到我修改代码中途的代码了? |
好的,谢谢
…------------------ 原始邮件 ------------------
发件人: "Bubbliiiing"<notifications@github.com>;
发送时间: 2020年9月5日(星期六) 晚上10:41
收件人: "bubbliiiing/faster-rcnn-pytorch"<faster-rcnn-pytorch@noreply.github.com>;
抄送: "王佳俊"<845470337@qq.com>; "Comment"<comment@noreply.github.com>;
主题: Re: [bubbliiiing/faster-rcnn-pytorch] 运行开始训练,卡住半小时,一直不动 (#9)
要不重新下一下吧,你可能下到我修改代码中途的代码了?
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
请问你们解决了吗?我训练的的时,训练到第一个epoch百分之十几就卡死机,两个backbone我试了试都是这样,我是台式机i5-9600k+rtx2080,内存16G,训练刚开始6个cpu全部百分百出力,内存接近百分百,显存百分之四十多,第一个epoch到百分之十几就卡死,不知道咋回事! |
|
是不是很多图片没有目标? |
有目标,数据集用你的yolov3,yolov4都跑过没有问题 |
卡死是怎么样的卡死 |
|
|
|
内存和CPU占用都太高了,都是100%,然后就卡死训练停止,电脑死机。 |
Emm没见过。。。。。。你看看2007_train.txt,是不是没目标的图片很多呀 |
版本是否都对应上了 |
2007_train.txt都有目标,环境就是pytorch=1.2.0都没有问题。 |
下个voc数据集试试 |
可以,我试试,感谢您的耐心 解答,非常感谢 |
我找到卡住的最主要原因,自己的数据集转过来的时候标签要和voc_annotation中的classes要一致,github主的源代码数据加载那里没有问题。我的标签原来是0,1,2,3.是yolo训练格式的,在转成voc格式的过程中xml中的name是0,1,2,3.而voc_annotation中的classes我设置的是["leaf", "sand", "bottle", "stone"],应该是["0", "1", "2", "3"]. 这里对不上的后果就是最后生成的2007_train.txt,每行标签后面没有坐标,因为转的过程xml中name和classes全都对不上。这样box在dataloader.py那里一直是空的。一直在while True里面不出来。。。。 谢谢!!!其他人卡住,估计都是自己的数据有问题,特别是标签一致的问题 ps:我今天复现了几个faster-rcnn。目前还是这个最简洁。。谢谢!!! |
我标签也没有问题还是卡死 |
@bubbliiiing @liaojiacai @caixiiaoyang 你们解决了么 |
B站截图吧,连同你的2007_train.txt |
那请问这有办法解决么?
…------------------ 原始邮件 ------------------
发件人: "bubbliiiing/faster-rcnn-pytorch" ***@***.***>;
发送时间: 2021年4月28日(星期三) 下午5:08
***@***.***>;
***@***.******@***.***>;
主题: Re: [bubbliiiing/faster-rcnn-pytorch] 运行开始训练,卡住半小时,一直不动 (#9)
这是详细情况,好像在for循环头就卡住了
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
没找到问题 |
你是什么问题 |
我也是同样的问题,跑着跑着就卡死了
…------------------ 原始邮件 ------------------
发件人: ***@***.***>;
发送时间: 2021年4月28日(星期三) 下午5:12
收件人: ***@***.***>;
抄送: ***@***.***>; ***@***.***>;
主题: Re: [bubbliiiing/faster-rcnn-pytorch] 运行开始训练,卡住半小时,一直不动 (#9)
你是什么问题
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
我的是不多不少正好第二轮卡死,试了很多次都是这样 |
我当时好像也是前几轮,第一轮没事
…------------------ 原始邮件 ------------------
发件人: ***@***.***>;
发送时间: 2021年4月28日(星期三) 下午5:14
收件人: ***@***.***>;
抄送: ***@***.***>; ***@***.***>;
主题: Re: [bubbliiiing/faster-rcnn-pytorch] 运行开始训练,卡住半小时,一直不动 (#9)
我的是不多不少正好第二轮卡死,试了很多次都是这样
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
如果还是不行可以试试把train.py中所有num_workers=4改为0 |
嗯嗯 我试试 谢谢大佬
…------------------ 原始邮件 ------------------
发件人: ***@***.***>;
发送时间: 2021年4月29日(星期四) 中午11:40
收件人: ***@***.***>;
抄送: ***@***.***>; ***@***.***>;
主题: Re: [bubbliiiing/faster-rcnn-pytorch] 运行开始训练,卡住半小时,一直不动 (#9)
如果还是不行可以试试把train.py中所有num_workers=4改为0
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
敢问大佬是研究生还是本科生鸭
…------------------ 原始邮件 ------------------
发件人: "bubbliiiing/faster-rcnn-pytorch" ***@***.***>;
发送时间: 2021年4月29日(星期四) 中午11:40
***@***.***>;
***@***.******@***.***>;
主题: Re: [bubbliiiing/faster-rcnn-pytorch] 运行开始训练,卡住半小时,一直不动 (#9)
如果还是不行可以试试把train.py中所有num_workers=4改为0
—
You are receiving this because you commented.
Reply to this email directly, view it on GitHub, or unsubscribe.
|
本科 |
0 0解决了嘛 |
搞定了 |
目测是多线程卡死的问题 |
怎么解决的啊,我了解一下 |
就是numwork吗 |
是的 |
网上也会人遇到过类似的问题,是多num_workers多线程导致死锁,在for循环头一直等待数据读入就出不去了 |
0 0好的兄弟 |
显卡:GTX1660Ti
The text was updated successfully, but these errors were encountered: