ma6174

Results 29 comments of ma6174

@wyd20162016 [github主页](https://github.com/ma6174)可以看到邮箱

https://github.com/ma6174/go_dep_search 新版的 `go_dep_search` 支持分析包调用链、支持找出未被使用的包。

增加了一个图形化分析包完整调用链的功能,比如分析标准库的 `net/http` 到 `net` 的调用链,欢迎更新到最新版使用 😄 ``` root@b7e158d83ff2:/go# go list -json all | go_dep_search -graph -o net.jpg net/http net ``` ![net.jpg](https://raw.githubusercontent.com/qiniu/go_dep_search/master/depgraph/testdata/net.jpg)

docker1.3增加新的exec命令行工具,进入container更加方便,简单说命令是:“docker exec -i -t bash” ``` bash $ docker version Client version: 1.3.0 Client API version: 1.15 Go version (client): go1.3.3 Git commit (client): c78088f OS/Arch (client): linux/amd64 Server version:...

@xiaoxiaoliang 首先 `ps aux | grep ssh`,能看到上面提到开启隧道的命令,kill掉就好了

@lidashuang 有详细测试过,目前看是非常给力,性能比mongodb高了一大截,存储空间也比mongodb小了很多。

@idning 后来查明发现是因为一个slave数据库文件损坏丢失了数据,其他slave数据库中的数据也丢失了,所有slave中的数据一致,但是master和slave出现不一致现象。后来经过检查发现master中的数据是正确的。 您做大量导入,我想了解一下您的量是多大?以什么方式导入的? tokumx您遇到过哪些坑?能否分享一下?

@idning 我们导入数据主要是做几个数据库的数据合并,因为数据量很大,十亿级别的,所以对数据导入的速度要求比较苛刻,否则导入速度跟不上数据产生的速度就麻烦了。 replset方式同步数据会拖慢导入速度,因此我们在导入数据的时候一般是只启动一个数据库实例,导入完成之后直接拷贝多份就可以组成replset。 你说的使用`safe`方式导入其实是可以优化的:采用批量写入,写入之后调用`getlasterrror()`,如果有错误,因为只有最后一条错误,不能确定是哪个数据insert出错,因此再对刚才批量导入的数据执行一次`safe insert`,没有错误则继续批量写入,毕竟切换出现的概率是比较小的,这样可以提高写入速度。 我说的`导入变慢`是因为随着数据库中数据条目数的增加,每次insert都需要首先查询一下数据在数据库中是否存在,数据量越大查询越慢,会导致导入越慢。当然如果没有查询这个操作的话,导入速度是比较稳定的,不会出现所谓的变慢现象。 您说的那个oplog的坑我们要考察一下,感谢您的分享。

@idning 之前也尝试过使用sharding方式导入,速度还不如replset方式快,毕竟sharding多了一个mongos,还涉及到分片和均衡。今天查了一下[官方文档](http://docs.mongodb.org/v2.4/core/bulk-inserts/#insert-to-multiple-mongos)说可以启动多个mongos,然后导入数据也通过多个mongos来导入,这样mongos的压力应该能降下来,可能速度会有增加,不过我没测试过。 关于tokumx的oplog看了一下[文档](http://www.tokutek.com/2014/02/whats-new-in-tokumx-1-4-part-2-partitioned-oplog/),从1.4版本开始使用的是`partitioned collection`: > In TokuMX 1.4.0 the oplog is now a “partitioned” collection, which is also a new type of collection, similar to SQL partitioned tables. A partitioned...