44670

Results 61 comments of 44670

the previous version that uses sdlv2 could be found in commit history, the newer one with sdlv1 is still WIP, it uses a better upscaling algorithm (via libswscale in ffmpeg...

你好,可以参考Fastchat项目的训练代码。但是,我们不太确定基于这个模型继续预训练/微调的效果如何,可能会不好。

> 可以试试examples/hello.py,要修改一下,加载模型的时候要设置trust remote code参数

> 好的,感谢回复。falcon本身应该是英文的。您那边在扩充到多语的时候,是采用的多语的文本数据进行继续预训练的吗?还是采用多语的指令数据进行SFT呢? 都需要

> > > > > > > > > 可以试试examples/hello.py,要修改一下,加载模型的时候要设置trust remote code参数 > > hello.py是使用的model = LlamaForCausalLM.from_pretrained 进行加载的,不适合faclon 哦哦哦,抱歉!我会尽快更新代码,你先换成AutoModelForCausalLM试试~

你好,代码已经更新啦

> 尝试加载 Falcon 仍然提示: ModuleNotFoundError: No module named 'transformers_modules.OpenBuddy.openbuddy-falcon-7b-v1' > > 我的代码: model = AutoModelForCausalLM.from_pretrained("OpenBuddy/openbuddy-falcon-7b-v1.5-fp16", trust_remote_code=True) > > 请问是哪里有问题吗? 可以参考下examples/hello.py,目前只能从本地目录加载,并且路径最后要有`/`

> AS_STATUS_NOT_INITIALIZED when calling `cublasCreate(handle)` 上面的warning是正常的,但是底下这个错误我还没见过,方便说一下软硬件环境吗?

> > Contributor > > Input length of input_ids is 251, but `max_length` is set to 100. This can lead to unexpected behavior. You should consider increasing `max_new_tokens`. 这个警告需要修改吗? 是的,需要改成max_new_tokens,关于显存的问题,可以试试以fp16加载,参考最新的hello.py