weibo-crawler icon indicating copy to clipboard operation
weibo-crawler copied to clipboard

新浪微博爬虫,用python爬取新浪微博数据,并下载微博图片和微博视频

Results 248 weibo-crawler issues
Sort by recently updated
recently updated
newest added

(weibo-crawler) E:\weibo-crawler>python weibo.py 成功获取到用户 2311331195 的信息。 准备搜集 深圳地铁 的微博 Progress: 0%| | 0/191 [00:00

\weibo-crawler-master\weibo\昵称\img 保存图片时候怎么变成\weibo-crawler-master\weibo\id\img

请求失败,错误信息:432 Client Error: for url: https://m.weibo.cn/api/container/getIndex?containerid=1005057340229276。等待 10 秒后重试...

大佬好,爬取评论和转发的时候可以爬到评论和转发的点赞评论数量吗?

想问一下大佬,可以在爬取的时候能把源微博对于的url也爬取到吗?这样就不用再进用户主页去搜索微博来定位了,而是直接点击链接进入对应的微博。

建议以"create_time type nickname desc" 即是“发微博时间-文件类型-微博id-文案” 的格式命名下载好的文件 如“2024-09-02 09.26.26-图片-冬日限定妮-白鹿_4” 表示博主“冬日限定妮”在“2024-09-02 09时26分26秒”发布了文案为“白鹿”且此为第“4” 张 “图片”

最近开始尝试在user id list里面加入第四个参数query list,docker运行,用sqlite的数据库,设置了每天跑一次,试了几天 虽然每次完成后都有自动写入最后运行时间,但是下次运行时依旧每个搜索关键词跑一遍,而且第一次运行之后,接下来每一次运行总会下载一小部分(远)早于最后运行日期的微博的图片和视频,也不确定是覆盖掉了前面运行时候的下载,是搜索结果发生了变化,还是什么问题。 相比之下,在不加人query list的时候,每个微博ID在两次运行之间,如果没有新的微博,可以马上就判断完成,等待爬取下一个ID。

想问下为什么现在爬取显示不了全文啦,以前都可以的,是我的原因吗? ![Image](https://github.com/user-attachments/assets/08d67882-2c7c-4f55-af0b-fc20c7c1861e)