weibo-crawler
weibo-crawler copied to clipboard
新浪微博爬虫,用python爬取新浪微博数据,并下载微博图片和微博视频

数据不全
每次只进行到一半就结束,频繁出现进行不下去提前结束想问下什么情况? progress没走完就说信息抓取完毕
电脑是macOS Catalina 10.15.7版本 脚本我已经成功安装了 就是到依赖那一步一直提示-bash: pip: command not found 具体如下 求大佬解答: The default interactive shell is now zsh. To update your account to use zsh, please run `chsh -s /bin/zsh`....
来自开发菜鸟的提问,关于通过设置实现只爬取微博用户信息的功能,请问具体是如何配置的呢?感谢感谢
max_page_num = re.search(r'[/](https://file+.vscode-resource.vscode-cdn.net/)> 1/(\d+)页', resp.text) ---> 84 max_page_num = int(max_page_num.group(1)) 85 for pn in range(2, max_page_num + 1): 86 try: AttributeError: 'NoneType' object has no attribute 'group' weibo.py没事,但是自己调用时出现了问题,不知道是编码还是在匹配页面的时候导致max_page_num为none(对html实在是不了解) 谢谢作者了
亲亲们,请问
不好意思,昨天没打完就误发了,打扰作者了。就是sincedate写日期的话,好像爬到1000条左右就结束运行了(离设定日期还早);但是写整数的话,到1000多条也会停一会但是没结束运行,我又重新运行了一下,只能爬800多条就停止运行了。请问这是什么原因呢?
如何下载中等尺寸 即点击一下浏览的尺寸 而不是最终的大图 
File "C:\Users\NING MEI\AppData\Local\Programs\Python\Python310\lib\ssl.py", line 1342, in do_handshake self._sslobj.do_handshake() FileNotFoundError: [Errno 2] No such file or directory File "C:\Users\NING MEI\AppData\Local\Programs\Python\Python310\lib\ssl.py", line 1342, in do_handshake self._sslobj.do_handshake() urllib3.exceptions.ProtocolError: ('Connection aborted.', FileNotFoundError(2, 'No such...