profection

Results 21 comments of profection

> +1 for the possibility of a functionality update/sanity pass over the code cleaning it up a bit. > > I have not really technically reviewed this code for technical...

there is no cs.ML category refer [arxiv category](https://arxiv.org/category_taxonomy) for more detail

这个功能得自己写,类型你自己定,它源码没提供这种接口= =

> 涉及用户数据 所以这一部分都不开源 可以自己实现一遍不太难 为什么我试了你们给的sl的ckpt,从开始到结束,预测胜率一直是百分百胜出?即使输了也是百分百胜率= =

> @profection 我们按每秒6000 frame的速度训练了大约两个月 哦,那时间有点长的啊,两月后最好的loss到什么程度了? 代码我稍微修改了一些,原有的代码逻辑是没有main.tar时自己生成ckpt,但我直接改成加载你们的ckpt,但使用你们提供的ckpt后,为什么评估loss是0.9,而且train了几分钟后得到的ckpt出牌预测时胜率变为不高于50%?很奇怪啊

补充一下,还有一个很奇怪的现象,如果出牌中有QQQ9997766635,对家出了8884,这边会直接出999Q,导致对家出TTT4后自己无牌可出,这是什么bug?能修复吗?

> QQQ9997766635 这是生成的可出牌序列 [[3, 12, 12, 12], [5, 12, 12, 12], [6, 12, 12, 12], [7, 12, 12, 12], [9, 12, 12, 12], [3, 9, 9, 9], [5, 9, 9,...

> @profection loss并不是越低越好 得看胜率。这种情况就是没学好,神经网络不能保证百分之百对 哦,那你们怎么判断什么时候算已经训练完了?或者什么时候该结束训练?

> @profection 这个只能靠和baseline的胜率判断 和我想一块去了,刚改了代码,三个角色有两个角色用baseline当老师,另一个当学生,我跑跑试试

另外有个关于神经网络结构的问题 为什么不用resnet,不用prelu,为什么lstm只用一层,为什么没有用dropout?只用6层linear是不是少了点?现在gpt都24层了