-
Notifications
You must be signed in to change notification settings - Fork 1.2k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
任一抓取时提示:cookie池中不存在cookie 是什么原因 #16
Comments
你的数据库的login_info表中有没有账号? 或者 所以你的问题的解决方法有:
|
问题解决了吗?有问题提issue就是哈。大家懂的就帮忙答复一下 |
如果账号登录需要验证码的,需要在数据库里把need_verify设置为1(默认也是1),设置后需要去云打码上注册一个账号,充值一块钱,用作识别验证码 |
新买的一批号嘛, 跑了一会儿 就又出现这种情况,没有cookies了, 每个节点都有 login_queue |
你要确定一下,你的账号是否被封了,如果被封了,所有cookie都会被删除。如果长期单一ip,可能ip会有一些风险,意思就是,只要你用那个ip的所有账号,都会被要求验证或者别的一些措施 |
我换个IP在试试 |
嗯嗯,你可以手动用那些账号在有问题的那个ip试试,看是一个怎么样的效果,如果是被封了,然后你在该ip登一个没被封的账号(最好是一个正常账号,而不是买的低质量的号),再看看效果咋样 |
我看到 数据里面 为0 的号 去手动登录了一下,是正常的没有被封,我调整数据库后,我换了一个外网IP后, 直接 login_queuw,home_crawler 命令 还是 显示 没有cookies , 感觉 login_queue这个任务没有执行. |
那是你的问题了,你需要在启动worker的时候指定login_queue,我看你写成了 |
那个是我输入错误,但是, 在celery -A tasks.workers -Q login_queue,user_crawler worker -l info -c 1 上面写道 直接受到 user_crawler 的任务,只有在我手动 Python login_first.py 才会启动login这个任务,是不是每次当cookies池没有cookies ,都必须手动在重新执行一遍 这个文件后 login_queue 这个任务才会执行?? |
不是,有个模块是定时任务,你好好读文档,好好理理思路。 |
定时任务是有一定时间延迟的。 |
The text was updated successfully, but these errors were encountered: