QinZuoyan
QinZuoyan
@mzss0 非常感谢你的反馈,以帮助我们提升性能。 是否可以使用async_get来试试?看看服务端返回时间和客户端感知时间的差距是不是还是很大,以帮助我们定位是不是客户端的问题。 另外可以不开启并发,而是只串行发送,看看是不是还有相同问题。
@mzss0 上面你的意思是map数据结构导致了性能下降?那修改后对性能有多大提升?
建议在run.sh build里面加一个选项,可以选择是用官方下载路径,还是阿里云下载路径
可以参考TiDB的TiTan实现:https://zhuanlan.zhihu.com/p/55521489
我怀疑锁使用得不对。现在是用的读写锁,在调用`async_read_some()`和`async_write()`时都是用的read_lock。如果用普通的排它锁是不是就不会有问题了?当然,用排它锁可能影响性能,但是这个需要测试才知道。
请问你微信号多少?我把你拉群讨论吧
so the resolution is to set O_SYNC flag when dsn_file_open() in log_file::create_write()?
We have adapted rocksdb's db_bench to rrdb_bench (refer to https://github.com/imzhenyu/rocksdb/pull/8), and do some test on our servers. server: Intel(R) Xeon(R) CPU E5-2620 v3 @ 2.40GHz \* 24, Memory 128G, with...
@imzhenyu , original number provided as above.
### Another test for SSD **_Deployment**_ - start 3 replica-server processes on the same machine - create 1 table "test": partition_count=3, replica_count=3 **_Machine**_ c3-hadoop-tst-pegasus-ssd4-st01.bj (24 core \* 2.10GHz, 64GB memory,...