Yang Wei
Yang Wei
https://godweiyang.com/2021/03/28/nn-cuda-example/ 在用PyTorch或者TensorFlow搭积木的时候,你是不是也遇到过下面这些情况: 自带的算子及其组合都无法满足你超(bian)常(tai)的计算需求。 自带的算子不可导,需要自己定义反向传播的梯度,例如argmax。 自带的算子太慢
https://godweiyang.com/2021/08/10/ls-bert-infer/ 最近阿里巴巴某上司伙同客户,给女下属灌酒并实施性侵,行为极其之恶劣,令人发指。 这让我又回想起之前流传的阿里新员工破冰活动,虽然阿里公关当时出来进行了辟谣,但我依旧觉得他们在说谎。 后来我找了一个在那实习过的同学问了问,事实确实如此: 这次
https://godweiyang.com/2021/04/13/lightseq-python-usage/ 最近有学妹问我,我训了一个Transformer模型,但是预测好慢啊,有啥解决方案吗? 我心想,你又想好,又想快,咋不上天🚀呢? 于是我跟她说,你可以试试lightseq啊,跟闪电⚡️一样快,用了你就可以上天了。 她一脸懵比,light
https://godweiyang.com/2021/06/26/params-cont/ 周末在家没事干,也没人约了打游戏,于是打开了gayhub闲逛,哦不,是github。 然后发现了一个挺有意思的项目: 也就是将你模型中的参数全部存储为一个连续的内存块,加速你的模型训练。 于是我抱着试试看的心态,基于Fairseq和Lig
https://godweiyang.com/2021/06/21/lightseq2-introduction/ 如今NLP和CV领域的大部分任务都将Transformer作为基础模型。而早在2019年12月,字节跳动曾经开源过一款Transformer类模型推理加速引擎——LightSeq。作为业界第一款支持多种模型和解码方法的推理加速引擎,Lig
https://godweiyang.com/2021/05/21/master-graduate/ 2021年5月19日,我答辩顺利结束了。 22年的学生时代终于要走到了尽头,在学校的日子过一天少一天。想到校园卡即将刷不进校门了,难免有些失落。 七年师大,从两年的东川路500号,到五年的中山北路3663号。我见证了计算机系的三次变迁,也发