yippee
yippee
Thanks for your fast JSON parser. ``` func GetMany(json string, path ...string) []Result { res := make([]Result, len(path)) for i, path := range path { res[i] = Get(json, path) }...
Thanks a lot for your project, it is very helpful for me to learn kafka. When I see the code, I find that, writeing a meesage to CommitLog and Index...
In your code: func newHub() *hub { return &hub{ sessions: make(map[*Session]bool), broadcast: make(chan *envelope), register: make(chan *Session), unregister: make(chan *Session), exit: make(chan *envelope), open: true, rwmutex: &sync.RWMutex{}, } } But...
Thanks a lot for your project I havenot found how to list the watched keys. Maybe I lost something or your havenot implement it. Like the command line: etcdctl lease...
感谢你的项目,如题,请问如何订阅多个kafka实例的消息,我看每个service只能对应一个kafka 实例,那如果我这个服务要连接消费多个kafka实例如何做呢?起多个service吗?但是仅仅为了连接多个kafka实例,启多个service有点繁重了。另外,请问一下,service如何屏蔽不需要的功能呢?比如,我只需要grpc,不需要broker,不需要transport等相关功能,如何做呢?貌似是只能用默认的功能,不能屏蔽?谢谢。
1,你这个项目的思想主要是,将sortedset的score作为过期时间来管理,服务提供端定期更新这个时间,服务消费端定时遍历所有的score值判定是否超时。我这样理解对吗?谢谢。如果是这样的话,服务消费端需要不停地轮训判断啊,感觉有点浪费啊。是我哪里理解有问题吗?谢谢。 2,能否通过redis自带的事件通知机制来做到服务发现的呢?比如监听过期key 命令:psubscribe __keyevent@0__:expired 监听新增key命令:psubscribe __keyevent@0__:hset,总之redis本身提供了很多key变动的消息通知,感觉这样的好处是不需要客户端自己去轮训,只要阻塞等待结果就可以。我看etcd就是类似的阻塞等待通知的。是我哪里理解有问题吗?谢谢
感谢你开源的分布式任务调度平台。 请教一个问题,为什么要选一个Job Node Leader 呢?我想了下,不选主,而是全部都是无状态的运行,任何一个node接受到了请求然后将任务投递到etcd,感觉不会有什么问题啊?还是我哪里理解错了吗?谢谢。
感谢万老师开源的go-stash,有个问题请教写入目标es时是否对出错进行了处理,我看应该是没有的,只是打印了错误日志。 迁移的时候往目标es写入数据,有可能会报错的,所以请问比较好的做法是什么呢?有相关解决方案介绍吗?谢谢。
感谢万老师开源的go-stash,有个问题请教写入目标es时是否有限流功能,我看应该是没有的。 在线迁移的时候目标es其实也在提供服务功能,如果写入流量太多可能会影响其他业务,所以请问如何做到一些限流或者说动态调整写入频率的功能呢?有相关解决方案介绍吗?谢谢。