weibo-crawler icon indicating copy to clipboard operation
weibo-crawler copied to clipboard

新浪微博爬虫,用python爬取新浪微博数据,并下载微博图片和微博视频

Results 248 weibo-crawler issues
Sort by recently updated
recently updated
newest added
trafficstars

我在weibo-crawler的目录下输入指令python weibo.py 或者python -m weibo.py或者 python -m weibo都提示找不到模块。 显示Traceback (most recent call last): File "weibo.py", line 14, in import sqlite3 File "D:\anaconda\lib\sqlite3\__init__.py", line 23, in from sqlite3.dbapi2 import * File...

爬了几个小时后,直接报错Broken pipe错误。重新开始的话,显示cookie无效了,但是测试账号可以正常登录啊

有时候第一次不能把一个账号下的推文从最新日期爬到第一条推文,希望大佬可以实现指定时间,这样之后就可以继续爬取上次为爬到的推文,而不是重新从最新一条重复爬取到最旧的一条

sqlite3.OperationalError: attempt to write a readonly database

猜测可能是根据mblog['mblogtype']来判断的,mbolgtype==2为置顶微博。由于我本地代码跟这个库里的代码有很多地方不一样,就不merge了。大家如果验证了没问题的话可以自己修改代码。下面是我修改的代码: ` def is_pinned_weibo(self, info): """判断微博是否为置顶微博""" weibo_info = info['mblog'] isTop = weibo_info.get('mblogtype') if isTop == 2: return True else: return False `

![微信截图_20240310150902](https://github.com/dataabc/weibo-crawler/assets/132137077/3a76ae65-fdc7-473e-8391-b0b25a57fa8f) 是不是这里需要改成自己系统配置,还是说只要改config.json里面的配置就好,但是我改了config里面的数据,还是录入不到MySQL数据库中,麻烦代码大佬解决

string indices must be integers, not 'str' Traceback (most recent call last): File "Y:\weibo-crawler\weibo.py", line 883, in get_one_weibo weibo = self.parse_weibo(weibo_info) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "Y:\weibo-crawler\weibo.py", line 782, in parse_weibo weibo["pics"] =...

可不可以把爬取到的评论直接以csv的格式显示,不放在sqlte数据库里面

有时候可以存在weibo文件夹下,但有些时候脚本结束了也没有这个文件。什么情况?