another1s
another1s
如题,在huggingface上找到两个一个Nyanko7的另一个decapoda的llama权重。但是下载了后者。。。。 使用convert_llama_weights_to_hf的时候才发现根本不适用,后面才看到“本项目不对使用第三方(非Facebook官方)权重的合规性和正确性负责,例如HuggingFace模型库中的decapoda-research/llama-7b-hf(use at your own risk)。” 那么现在有没有脚本可以支持decapoda这个版本的权重呢?
如题,我的环境是 python 3.9+ pytorch 1.9.0 + cuda11.2加载4bits的模型,但是我通过setup_cuda.py生成的quant_cuda.cpp貌似不能正常的import。这个文件是放在gptq那个文件夹的根目录底下吗?
如题,原论文中report的sighan15的 sentence-wise的 detect和correct分别是 73.5和66.4,描述使用的训练集也是sighan13-15的三个training set以及他们自己构建多达5million的 news title数据。你这边sentence一口气提到了79.4,还是仅用sighan得数据finetune,这个差距也太大了吧 有没有可能你的统计指标跟它不一样呢。。我个人怀疑你用的是sighan15的全量数据进行测试,即无错误的负样本也计入了 但实际上后面一系列的csc文章,基本都只用正样本进行测试的
Hello, i am currently working on converting some texts into a srt file. Intunitily i created a SSAFile object and assigned a list of SSAevent to it's attribute, but it...
I am tangled with a long video(about 5 hours) processing task and it kept running for about 24 hours and have not been finished yet, which takes much time than...