cyshi
cyshi
优化了两点 - 多线程共享一个io_service导致server没有线程扩展性,现在改成了io_service per cpu - ptime_now函数使用了boost库中的取时间函数,gmtime_r这个应该是有锁的 以上两点优化后,在 `Intel(R) Xeon(R) CPU E5-2450 v2 @ 2.50GHz 128g RAM` 机器上,qps大概110w左右 左言,有没有什么别的建议
> RpcMessageStream::_pending_calls存取需要加锁,可以考虑改为无锁队列 这点我尝试过替换成`boost::lockfree::queue`,感觉效果不明显,应该是得益于swapped_calls 的缓存作用 其他几点我争取一并修改,多谢
目标单io_service能支撑百万以上QPS TODO - [ ] RpcServer 批量响应 - [ ] 记录请求处理时间的时间戳,加上宏开关 - [ ] buffer中使用的deque,是否用list更合理,要注意size()是O(n)复杂度 - [ ] 默认的block size是否合理 以上每一个点都需要结合延迟分布,再决定合入哪个到主干
Hi 目前我们正在开发hhvm版本 不知道这个能不能满足需求
@panshiming php版本的rpc近期就会提供 请关注
plugin不要放到sample中 用户无法使用 按照之前zuoyan建议 最好增加lite版和full版的rpc库
这个没问题的话 就合入了? @qinzuoyan @bluebore
辛苦 @zd-double 看看
能再具体点么?或者方便的话是不是可以贴一下代码