Chen Lei
Chen Lei
会不会是cmd工具的原因,换个cmd软件看看
scrapy crawl search 命令呢?
@SkydustZ 可以删除crawls文件夹看看
@Ghostofish 是不是修改cookies_enabled参数了,这个不要修改。
你可以修改search.py,如果还有问题,欢迎讨论。
感谢反馈,现在可以获取正确的cookie吗? 我考虑下是否支持免cookie,考虑好了就添加。不过,免cookie的应该和微博免cookie的一样,有限制。如果能获取cookie,还是尽量获取。
可能有重复的,没有保存,或者参考 #69
程序没记忆,一次运行期间能去重,但多个运行之间没记忆,会重复写入csv,如果不介意,可以重爬。 打开文件就不能写入了,不要在运行时打开。
之前能找到吗?默认保存在 结果文件夹 里。
@Meng123155 默认就是保存在结果文件夹的csv文件。