movecpp

Results 4 issues of movecpp

请问你是怎样解决你题目中的这个问题的?@Adhders 我是gcc7.3,cuda10.1,pytorch版本1.1.0a0+7e73783,make的时候报跟你一样的错 _Originally posted by @berylyellow in https://github.com/SeanNaren/warp-ctc/issues/116#issuecomment-486504009_ cuda版本兼容问题,具体请移步nvidia 官网查看详细信息,总之出处就在上面,请根据cuda版本自行解决。

same error, delete is not work. _Originally posted by @qmpzzpmq in https://github.com/SeanNaren/warp-ctc/issues/116#issuecomment-486520118_ you should check up your cuda version,this problem cause cuda version compatbility

## 一开始照搬模型设置训练了一个大型数据集,始终无法收敛到理想区间,又拿斗破来修改模型参数玩了个把星期,各种调参。 ### 总结如下: #### 1. 模型的收敛取决于词嵌入的维度,维度越大收敛越快越好。(有没有上限就懒得去测试了,电费要紧。) #### 2.head与隐藏层数可以适当裁剪,隐藏层可以设置高一些,multi-head感觉超过5层之后似乎对于生成的结果影响并不大。 #### 3. 模型长度不影响训练,但与学习效果有很大关联,能大些就大些。 #### 4.训练效率问题,模型参数与训练效率息息相关,合理的batch数量、GPU显存、适当的模型参数(multi-head拉低,layer尽量比head大),100%使用率还是能达到的,当然了,小数据集随便跑吧,不用纠结,反正不费多少时间。 #### 5. 鄙人发现,似乎参数与batch设置为双数,训练起来总有种飘飘欲仙的感觉,不知道是不是错觉。 ## 一句话: > 降低multi-head,适当保持layer层,embed越大越好,ctx,学习长度当然大了好了,数据集交叉学习收敛更快,最终生成效果更好,loss压到0.3以下,基本可以生成十分通顺的文章了。如何加快训练速度是个头痛的事,fp16精度损失实在太大,调整了很多很多次模型,始终是坐过山车,要么就不学习,最终只能放弃使用fp16。。。

在requests.cpp处,当从content截取cookie的时候只有大写头部。因此导致某些网站的cookie获取不完整。 key == s_trim("Set-Cookie")修改为key == s_trim("Set-Cookie")||key == s_trim("set-cookie") 即可解决此问题。 嗯。。。。能用吧,session的请求重载写的还是少了些,建议补充一下。