Shen Hao
Shen Hao
欢迎您反馈PGL使用问题,非常感谢您对PGL的贡献! 在留下您的问题时,辛苦您同步提供如下信息: #### 版本、环境信息 - PGL和PaddlePaddle版本号: PaddlePaddle2.1.1 - 系统环境: window 10 python3.9 #### 复现信息: 
# What's changed - 💬create a dir: `code/chapter05_gan` - ✅upload three jupyter notebooks: `5.2_GAN.ipynb` `5.3_CGAN.ipynb` `5.4_DCGAN.ipynb`
评论功能好像消失了
- add gnn explainability tutorial - add visualization utility
[License]: create a new license
请问chatglm中tokenizer(question)的结果是question+[gMASK]+,后续为生成的结果进行model.generation(**input_ids),但是如果我自己进行tokenizer,设定为[gMASK]++question,后续为模型回答的内容。两种方式是否都可以。 在llama-factory中采用了如下的模板: _register_template( name="chatglm", format_user=StringFormatter(slots=["[Round {{idx}}]\n\n问:{{content}}\n\n答:"]), format_system=StringFormatter(slots=[{"token": "[gMASK]"}, {"token": ""}, "{{content}}"]), format_separator=EmptyFormatter(slots=["\n\n"]), efficient_eos=True, force_system=True, )