llamafactory-cli 启动方式让人迷惑体验感差,请考虑恢复python src/... 这样的启动方式
Reminder
- [X] I have read the README and searched the existing issues.
Reproduction
项目更新后,发现程序启动方式变为 llamafactory-cli xxx 这样的方式,老实说这样的方式体验感很糟,不能定位到底运行了哪个文件,不如之前的python src/... 这样的方式清晰,容易定位文件,运行报错时,也容易追踪和定位。请考虑是否改回来。
Expected behavior
No response
System Info
No response
Others
No response
The same problem. llamafactory-cli is not a good idea. :(
I want to find the file src/export_model.py but I can't find it in this new version :(
早上一启动,给我搞懵逼了~都习惯了,没必要这么搞啊
臣附议
而且我都搞不清楚要在哪里把127.0.0.1换成0.0.0.0,搞得我在服务器上部署的都访问不到了。
而且我都搞不清楚要在哪里把127.0.0.1换成0.0.0.0,搞得我在服务器上部署的都访问不到了。
关键gradio提示的添加share=True也没用。
+1
大佬们这个错误是什么情况
@Anorid 你这哪里有报错?
+1
llamafactory-cli api -h: launch an API server
llamafactory-cli chat -h: launch a chat interface in CLI
llamafactory-cli eval -h: do evaluation
llamafactory-cli export -h: merge LoRA adapters and export model
llamafactory-cli train -h: do training
llamafactory-cli webchat -h: launch a chat interface in Web UI
llamafactory-cli webui: launch LlamaBoard
llamafactory-cli version: show version info
using "export GRADIO_SHARE=True" does not work to create a public link of gradio when running "llamafactory-cli webui"
臣附议!
+n!
using "export GRADIO_SHARE=True" does not work to create a public link of gradio when running "llamafactory-cli webui"
+1
本次更新的初衷是提供更完善的文档和更便捷的启动方式,由于文档没有及时更新,因此带来了一些使用上的不便,在此表示抱歉。在最新的 PR #3596 中,我们提交了以下几点更新:
- 添加了 train.py 和 webui.py,分别对应上个版本的 train_bash.py 和 train_web.py,兼容了旧的启动方式
- 更新了主页 Readme,添加了三步上手 Llama3 模型微调,详情见此处
- 将 examples 目录下的使用样例全面适配 Llama3 模型,并且提供了更细致的功能描述:https://github.com/hiyouga/LLaMA-Factory/blob/main/examples/README_zh.md
如有其它建议,欢迎在此版块下评论。
I want to find the file src/export_model.py but I can't find it in this new version :(
@DinhLuan14 We have updated the document, see https://github.com/hiyouga/LLaMA-Factory/blob/main/examples/README.md#merging-lora-adapters-and-quantization
臣附议
本次更新的初衷是提供更完善的文档和更便捷的启动方式,由于文档没有及时更新,因此带来了一些使用上的不便,在此表示抱歉。在最新的 PR #3596 中,我们提交了以下几点更新:
- 添加了 train.py 和 webui.py,分别对应上个版本的 train_bash.py 和 train_web.py,兼容了旧的启动方式
- 更新了主页 Readme,添加了三步上手 Llama3 模型微调,详情见此处
- 将 examples 目录下的使用样例全面适配 Llama3 模型,并且提供了更细致的功能描述:https://github.com/hiyouga/LLaMA-Factory/blob/main/examples/README_zh.md
如有其它建议,欢迎在此版块下评论。
api接口也需要一个配置网址和端口的地方,希望api_demo.py能回来,真的很需要。
@CodingQinghao https://github.com/hiyouga/LLaMA-Factory/blob/main/src/api.py
@CodingQinghao https://github.com/hiyouga/LLaMA-Factory/blob/main/src/api.py
非常感谢!
CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat examples/merge_lora/llama3_lora_sft.yaml 这个执行不了
纵使一键启动快了,debug是男上加男
请问llamafactory-cli启动方式是怎么实现的?
附议,可以把python的方式也保留一下,方便debug
see https://github.com/hiyouga/LLaMA-Factory/issues/3582#issuecomment-2096286065
希望能保留脚本模式,并提供相应的 example