Chi Liu

Results 4 issues of Chi Liu

https://github.com/thinksoso/datasets/blob/master/clue/download.sh ``` BASH declare -A dict dict['tnews']=https://storage.googleapis.com/cluebenchmark/tasks/tnews_public.zip dict['afqmc']=https://storage.googleapis.com/cluebenchmark/tasks/afqmc_public.zip dict['iflytek']=https://storage.googleapis.com/cluebenchmark/tasks/iflytek_public.zip dict['ocnli']=https://storage.googleapis.com/cluebenchmark/tasks/ocnli_public.zip dict['cmnli']=https://storage.googleapis.com/cluebenchmark/tasks/cmnli_public.zip dict['cluewsc2020']=https://storage.googleapis.com/cluebenchmark/tasks/cluewsc2020_public.zip dict['csl']=https://storage.googleapis.com/cluebenchmark/tasks/csl_public.zip dict['cmrc2018']=https://storage.googleapis.com/cluebenchmark/tasks/cmrc2018_public.zip dict['drcd']=https://storage.googleapis.com/cluebenchmark/tasks/drcd_public.zip dict['chid']=https://storage.googleapis.com/cluebenchmark/tasks/chid_public.zip dict['c3']=https://storage.googleapis.com/cluebenchmark/tasks/c3_public.zip for key in $(echo ${!dict[*]}) do wget ${dict[$key]} unzip ${key}"_public.zip" -d ${key} rm...

* 增加 MoE 支持 * 利用 libai moe 做 cifar10 分类任务 project

MoE(Mixture-Of-Experts, 混合专家系统),在不增加计算量的情况下增加模型容量。采用的技术是Conditional computation,通过加入可训练的门控网络,决定专家系统的稀疏组合。直观看来,就是把一个大模型,按层拆分成不同的小模型组合,在输入样本时,动态地选择对应的小模型计算。 使用SPARSELY-GATE机制来选择模型,MoE包含一个门控网络决定激活哪些层。 ![image](https://user-images.githubusercontent.com/42956025/161927396-f02f59bc-88b8-4a02-99af-2d80f1df5b07.png)