Results 27 comments of zihe.liu

使用的 StarRocks 的版本号是多少?可以通过 SQL ` select current_version()` 查看。

> 我be 三节点,三副本。 按照ScanRows/numBEs 来算的话,也就是big_query_scan_rows_limit 为ScanRows 三分之一能限制住,但是我刚刚做了一个实验:'big_query_scan_rows_limit' = '100000' 时, select * from app_smartbi_trade_bus_ware_sale_d limit 100001这样查却报限制了。 Could you offer the result of `explain select * from app_smartbi_trade_bus_ware_sale_d limit 100001`?

Could you offer a profile of `select * from app_smartbi_trade_bus_ware_sale_d limit 100001`? You should increase big_query_scan_rows_limit to make the query successful.

> 咱们有交流群嘛,qq或者微信啥的 可以搜索关注微信公众号StarRocks,点击“联系我们”,添加小助手微信后,会有人拉你进群。

这个报错是预期之内的行为。原因是,虽然 `limit 100_001`,但是每个 BE 都会分别扫描 100_001 行(超过了 100_000 行),所以会报错。

> 感谢回复,今天我测试了下‘’big_query_scan_rows_limit' = '13000000' , select count(*) from app_smartbi_trade_bus_ware_sale_d (表的数据量为37198775) 但是我多次查询时有时候可以限制,有时候直接查询出结果了。 根源在于 `big_query_scan_rows_limit` 限制的只是一个查询在单台 BE 上扫描的数据量,只是作为一个兜底的策略。 多次查询之间,一个表分配到每个 BE 上扫描的 tablet 数量可能是不同的。由于 big_query_scan_rows_limit*3=39000000,有的时候可能恰好三个 BE 都没有超过该限制。

When `query_mem_limit` is 0, the session variable `exec_mem_limit` will be effective. The total memory limit of this query in a BE is equal to $exec\\_mem\\_limit \cdot num\\_fragments \cdot pipeline\\_dop$, where...