sheep
sheep
> 羊大,我看代码里还是200的分页码,以后改成50一页的话,怎么快速调整? 会自动调整的,我获取第一页数据的时候先用一个比较大的参数,拿到结果之后看实际给了多少条数据,之后多次请求以第一次给的数据条数为每页需要获取的数据条数去请求。
> 我也是这样的,第一次可以通,后面就连续失败。感觉不能频繁访问, 现在服务端做限流了,稍微频繁访问一下会弹滑快验证码(网页可见)。
> @DavidRoboter @Micro-sheep 有什么替代方案吗? 如果是获取A股k线数据,可以先切换到baostock
服务端那边近期开始对行情相关接口进行了限流,频繁访问会导致ip被暂时被封,目前除了控制访问频率或者加个动态代理,暂时没有其他解决方案。
> 你好,我对使用代理方式不是很熟悉,能否推荐一个可用的代理服务器? 谢谢 > > > > > > > > ---原始邮件--- > > 发件人: ***@***.***> > > 发送时间: 2025年4月24日(周四) 下午2:59 > > 收件人: ***@***.***>; > > 抄送: ***@***.******@***.***>; >...
> 自己有一些代理IP,添加代理是否可以解决被封问题?怎么样添加代理呢?谢谢! 可以在运行 python 之前,在终端走代理,通过设置 `http_proxy` 以及 `https_proxy` 实现。有的系统下这两个环境变量名称可能需要大写。
> 一堆代理如何切换呢 @Micro-sheep 看看能不能找个代理工具,支持自动根据你的ip池切换。或者可以让ai帮你写个代理工具帮你切换ip、然后你连接这个代理工具(代码量应该不超过100行)
> 我的问题是可不可以在efinance的库里直接添加一段代码来获取ip, 并且把ip放到proxy让efinance能够使用这个ip。 不可以,难以找到可用性高的ip资源池,即便找到了,大家一起使用这个也会导致代理ip被封。由使用者自行管理代理吧。
> 因为需要每天更新本地数据价格,但又不想大批量用get_quote_history(容易封IP),所以想用get_realtime_quotes获取全部当天最新数据后再更新到本地,但是该方法容易受除权因素的影响,想找除权日的数据来修正也找不到,如果get_realtime_quotes能获取到后复权的当前价格就完美解决了。 如果想增量更新,有一个方法可以大幅降低请求数。 每天收盘之后 get_realtime_quotes 获取当天收盘价以及前收盘价,比对一下前收盘价跟数据库记录的是否一致,不一致则 get_quote_history 全量更新,一致则增量更新即可。
> 我测试过用get_quote_history下载所有历史数据和近几天的历史数据,不限速的情况下都是到第5百多IP就被封了,要隔一段时间才能解封,不过下载流量的确是大幅减少了的,不知道被封是不是我多次调用get_quote_history下载单只而不是一次调用下多只的原因 > > 可以考虑 mootdx 这个库,它接的通达信,限流没东财那么严格。