weibo-search icon indicating copy to clipboard operation
weibo-search copied to clipboard

获取微博搜索结果信息,搜索即可以是微博关键词搜索,也可以是微博话题搜索

Results 256 weibo-search issues
Sort by recently updated
recently updated
newest added

大佬好 我想爬取微博话题页包含“人间”两个关键词的所有话题名称,请问该怎么做出更改呢 ![image](https://github.com/dataabc/weibo-search/assets/152331105/3b5f88c8-d41a-414a-bcb7-2b48ab60295e) 如图所示,只需要话题名称-讨论量-阅读量,不用显示下面的具体微博

昨天都还是正常的可以爬取数据,今天早上就续行了,很多字段报错,下面只是其中一个,之前改了一些修复了一些,现在还有,求大佬解答 Traceback (most recent call last): File "C:\Users\\.conda\envs\Network_spider\lib\site-packages\scrapy\utils\defer.py", line 279, in iter_errback yield next(it) File "C:\Users\\.conda\envs\Network_spider\lib\site-packages\scrapy\utils\python.py", line 350, in __next__ return next(self.data) File "C:\Users\\.conda\envs\Network_spider\lib\site-packages\scrapy\utils\python.py", line 350, in __next__ return next(self.data)...

1、 运行scrapy crawl search之后无反应。 a. 尝试更换cookie b. 不要在半夜12点左右运行。 2、 split, replace等问题的解决方法。 尝试修改p[@Class="from"]为div[@Class="from"]或div[@class="from"],或根据控制台element进行相应元素类名标签名的修改。 以上为本人踩坑一天以来进行的所有尝试,欢迎各位大佬纠正。 谢谢作者源代码。 爬取的所有数据点赞为0,出现这个问题的原因可能是因为相关元素标签和类名发生了更改(f12可以看到) 修改方法如下: `attitudes_count = sel.xpath('(.//span[@class="woo-like-count"])[last()]/text()').extract_first()` 改为 ` attitudes_count = sel.xpath('.//a[@action-type="feed_list_like"]/em/text()').extract_first()` 下文同理

开始时无论怎么更换search名字都是抓取到相同的300条后自动停止。按照#66 替换了代码,更改了cookie,更改了setting里的日期,删除了原来的结果文件和crawl文件,但爬出来的依然是一开始的300条。请问可能是哪里有问题?

运行第一次的时候生成了一个结果文件;后来更换了关键词并重启了Spyder,重新运行scrapy之后只会把结果输出到前一个结果文件里

作者您好,为什么我运行的时候scrapy crawl search可以成功开始爬虫,但是运行scrapy crawl search -s JOBDIR=crawls/search就没反应

D:\Desktop\爬虫\weibo-search-master>scrapy crawl search Traceback (most recent call last): File "C:\Users\lenovo\AppData\Local\Programs\Python\Python310\lib\runpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "C:\Users\lenovo\AppData\Local\Programs\Python\Python310\lib\runpy.py", line 86, in _run_code exec(code, run_globals) File "C:\Users\lenovo\AppData\Local\Programs\Python\Python310\Scripts\scrapy.exe\__main__.py", line 7,...

作者提到可以通过Ctrl + C终止,第二次爬取会按原来结束点继续爬取,那如果我更改了关键词列表想重新爬取应该怎么做?

感谢大佬的更新! 有个问题,我用了最新的Code,但是爬取的数据中5w条,其中只有140条有IP.想请教下怎么处理? 已经排查了爬取时间,确定是IP披露郑策后的数据,也查看了原网页,其实是有IP的,请问如何修改?谢谢!