TheHonestBob
TheHonestBob
我使用bart-base-chinese做生成,编码器输入原始文本,解码器的输入和输出为目标文本偏移,也即是预测下一个token,但是生成的结果全是一个字,请问什么原因造成的呢
请问作者你的sentencepiece 模型是自己训练的还是在哪里下载的,我看官方的sentencepiece 模型和你大小不一样,应该用的不是官方的cpm吧
thanks for your work, What is the relative position method in this code? I want to learn more
### Branch main branch https://mmagic.readthedocs.io/en/latest/ ### 📚 The doc issue when I use MMagicInferencer, I cannot specify any parameters, or in other words, after reading many levels of source code,...
what happened,here is my pip list aiofiles 23.2.1 aiohttp 3.8.5 aiosignal 1.3.1 altair 5.1.1 annotated-types 0.5.0 anyio 4.0.0 async-timeout 4.0.3 attrs 23.1.0 blinker 1.6.2 Brotli 1.1.0 cachetools 5.3.1 certifi 2023.7.22...
你好,请问一下擦除效果会受到哪些因素影响,我使用你开源的模型进行文字擦除,效果不好,文本mask使用的文本检测模型,不知道是我代码问题,还是说受到训练数据的影响,导致我的预测结果不佳,图片的大小和非文本区域的数据分布会影响擦除效果吗,以下是我的原始图片ori和预测图片result  
https://huggingface.co/thehonestbob/mrasp
在基于某种语言微调的时候,我看use_dir.TranslationWithLangtokTask.setup_task代码中读取了dict.{}.txt,这个文件我网上搜应该是fairseq-process这一步产生的,貌似后面构建词表的时候就是用的目标语言对的dict.{}.txt,如果是这样的话,岂不是和预训练词表不一致了吗?是哪里我理解错了
thanks for your project, when I sh finetune.sh,OOM happen when evaluate,even though I set eval_batch_size=1,my gpu is 2080ti 11G.