TheHonestBob

Results 20 issues of TheHonestBob

我使用bart-base-chinese做生成,编码器输入原始文本,解码器的输入和输出为目标文本偏移,也即是预测下一个token,但是生成的结果全是一个字,请问什么原因造成的呢

请问作者你的sentencepiece 模型是自己训练的还是在哪里下载的,我看官方的sentencepiece 模型和你大小不一样,应该用的不是官方的cpm吧

thanks for your work, What is the relative position method in this code? I want to learn more

### Branch main branch https://mmagic.readthedocs.io/en/latest/ ### 📚 The doc issue when I use MMagicInferencer, I cannot specify any parameters, or in other words, after reading many levels of source code,...

kind/doc

what happened,here is my pip list aiofiles 23.2.1 aiohttp 3.8.5 aiosignal 1.3.1 altair 5.1.1 annotated-types 0.5.0 anyio 4.0.0 async-timeout 4.0.3 attrs 23.1.0 blinker 1.6.2 Brotli 1.1.0 cachetools 5.3.1 certifi 2023.7.22...

你好,请问一下擦除效果会受到哪些因素影响,我使用你开源的模型进行文字擦除,效果不好,文本mask使用的文本检测模型,不知道是我代码问题,还是说受到训练数据的影响,导致我的预测结果不佳,图片的大小和非文本区域的数据分布会影响擦除效果吗,以下是我的原始图片ori和预测图片result ![ori](https://user-images.githubusercontent.com/58240629/229351818-a0024275-136e-462c-ae58-4af2bd10524a.png) ![result](https://user-images.githubusercontent.com/58240629/229351819-74f04c5d-cefc-4ef2-801c-adbf8ee308c5.png)

https://huggingface.co/thehonestbob/mrasp

在基于某种语言微调的时候,我看use_dir.TranslationWithLangtokTask.setup_task代码中读取了dict.{}.txt,这个文件我网上搜应该是fairseq-process这一步产生的,貌似后面构建词表的时候就是用的目标语言对的dict.{}.txt,如果是这样的话,岂不是和预训练词表不一致了吗?是哪里我理解错了

thanks for your project, when I sh finetune.sh,OOM happen when evaluate,even though I set eval_batch_size=1,my gpu is 2080ti 11G.