借助Python抓取微博数据,并对抓取的数据进行情绪分析
参考自https://github.com/nghuyong/WeiboSpider/tree/search
本部分请参考文件夹WeiboSpider
中的内容
1.安装依赖:
mongodb
phantomjs
redis
requirements.txt
(安装好mongodb之后需要新建数据库sina
)
2.构建账号池
购买微博小号,购买链接http://www.xiaohao.shop/
将账号密码复制到 WeiboSpider/sina/account_build/account.txt\
运行 WeiboSpider/sina/account_build/login.py
运行成功会显示cookie创建成功
3.自定义检索条件
修改 WeiboSpider/sina/redis_init.py
中的日期,关键词,运行该文件进行微博检索
(本项目默认抓取热门微博,如需更改可将url中的sort设置为time)
4.开始爬虫
运行 WeiboSpider/sina/spider/weibo_spider.py
抓取目标数据
建议采取多线程同时抓取,提高速度
Mac用户在命令行中输入 scrapy crawl weibo_spider
Windows用户在命令行中输入 scrapy runspider weibo_spider.py
5.检查抓取的数据
数据会存储在sina
database
中,collection
下会有tweets
(微博)comments
(评论)account
(账号)
本部分请参考文件夹WeiboSpiderSimple
中的内容
1.安装依赖:
mongodb
requirements.txt\
2.替换cookie:
访问 https://weibo.cn/ 并登陆,获取对应的cookie,将WeiboSpiderSimple/sina/settings.py
中的cookie换成你自己获取到的cookie
3.指定爬取的用户ID
将WeiboSpiderSimple/sina/spider/weibo_spider.py
中的start_uids
换成你想抓取的对象的微博ID。
4.开始爬虫
执行scrapy crawl weibo_spider
或者直接在pycharm当中运行WeiboSpiderSimple/sina/spider/weibo_spider.py
见EDA.py
见Sentiment analysis.ipynb