liferecords

Results 10 comments of liferecords

1. I have been signed the CLA 2. I install pre-commit, and run `pre-commit run --all-files`, all pass. But when i run `pytest tests`, appear 66 errors, I doubt this...

> > 这个就需要你进行封装,后面会公布一个并发或者集群的部署方案 > > 大佬 我想知道如何实现高并发啊? 我现在是走tensorflow-serving的路子。 检测用keras、识别也用keras 在tensorflow-serving部署吗?

when i download dataset from guesslangtool, many repo is not exist, and github server reject my request.

> > github server reject my request > > Strange... Guesslangtools main workflow only rely on `git` commands because, as far as I know, they are not (yet) restricted by...

> Dear Y. Somda, thanks for the extensive answer. I am very familiar with TF and have build many models for it and also converted them to TF-Lite. It is...

> 我也遇到这个问题了,你解决了吗? 检查一下训练跟推理 图片的通道顺序

> 正在训练的拓展到65000 ,在不调整rope scale 的情况下,是4096 。调整rope scale目前测试18k 效果也还不错 你只需要调整rope scale吗,在微调过程中需要调整SFTTrainer中的max_seq_length值吗,另外,您的GPU配置情况方便说明一下嘛

> 感谢项目组提供的模型,非常优秀,也因此我希望基于你们模型再微调以供后续使用。 > > 在使用的时候遇到两个问题。 1> 模型调用,在 [https://huggingface.co/FlagAlpha/Atom-7B-Chat](url) 上开篇提到 Atom-7B-32k-Chat ,不知该模型本身是否已经支持32K?是否使用的时候直接加载即可,不需要额外修改文件或参数,能使用32k长度 2> 模型微调,在该项目内提到 “Atom大模型默认支持4K上下文,利用位置插值PI和Neural Tangent Kernel (NTK)方法,经过微调可以将上下文长度扩增到32K”,不知是否有微调的DEMO?我想在长文本QA上尝试微调,但不知基于本项目应该如何入手。 > > 先行感谢。 我最近也在做相关的工作,可以交流一下,目前也还没调通

> > > 感谢项目组提供的模型,非常优秀,也因此我希望基于你们模型再微调以供后续使用。 > > > 在使用的时候遇到两个问题。 1> 模型调用,在 [https://huggingface.co/FlagAlpha/Atom-7B-Chat](url) 上开篇提到 Atom-7B-32k-Chat ,不知该模型本身是否已经支持32K?是否使用的时候直接加载即可,不需要额外修改文件或参数,能使用32k长度 2> 模型微调,在该项目内提到 “Atom大模型默认支持4K上下文,利用位置插值PI和Neural Tangent Kernel (NTK)方法,经过微调可以将上下文长度扩增到32K”,不知是否有微调的DEMO?我想在长文本QA上尝试微调,但不知基于本项目应该如何入手。 > > > 先行感谢。 > > > > > >...

> > > > > 感谢项目组提供的模型,非常优秀,也因此我希望基于你们模型再微调以供后续使用。 > > > > > 在使用的时候遇到两个问题。 1> 模型调用,在 [https://huggingface.co/FlagAlpha/Atom-7B-Chat](url) 上开篇提到 Atom-7B-32k-Chat ,不知该模型本身是否已经支持32K?是否使用的时候直接加载即可,不需要额外修改文件或参数,能使用32k长度 2> 模型微调,在该项目内提到 “Atom大模型默认支持4K上下文,利用位置插值PI和Neural Tangent Kernel (NTK)方法,经过微调可以将上下文长度扩增到32K”,不知是否有微调的DEMO?我想在长文本QA上尝试微调,但不知基于本项目应该如何入手。 > > > > > 先行感谢。...