MING icon indicating copy to clipboard operation
MING copied to clipboard

运行模型问题

Open Marcos114514 opened this issue 2 months ago • 5 comments

ming 7b:python -m fastchat.serve.cli
--model-path {path_to_checkpoint} \ # 模型路径 --conv_template bloom \ # prompt --max-new-token 512 \ # 输出最大长度 --beam-size 3 \ # beam search宽度 --temperature 1.2 # 采样温度 这里终端会报错

Marcos114514 avatar May 02 '24 13:05 Marcos114514

请问成功了吗? 要求里面写着显卡内存要15G以上是一定得满足吗 我用轻薄本是不是跑不了了?

algorithm111ned avatar May 06 '24 11:05 algorithm111ned

是的 柯宇浩 @.*** 签名由 网易灵犀办公 定制 Original: From:algorithm111ned< @.>Date:2024-05-06 19:00:30To:MediaBrain-SJTU/MING< @.>Cc:Subscribed< @.>Subject:Re: [MediaBrain-SJTU/MING] 运行模型问题 (Issue #23) 请问成功了吗? 要求里面写着显卡内存要15G以上是一定得满足吗 我用轻薄本是不是跑不了了? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you are subscribed to this thread.Message ID: @.>

那这样大模型训练的一般都是用什么跑出来的呢>?

algorithm111ned avatar May 06 '24 11:05 algorithm111ned

ming 7b:python -m fastchat.serve.cli --model-path {path_to_checkpoint} \ # 模型路径 --conv_template bloom \ # prompt --max-new-token 512 \ # 输出最大长度 --beam-size 3 \ # beam search宽度 --temperature 1.2 # 采样温度 这里终端会报错

您好,Traceback能提供一下么

BlueZeros avatar May 07 '24 06:05 BlueZeros

这个是终端运行截图

另外,如果我去掉所有的后缀,只输入python -m fastchat.serve.cli, 是可以下载模型的(大约12GB),想问一下这个是你们的MING模型吗,你们在github上展示的demo是怎么进入的呀?

附:设备:显卡一个3090 独显24GB

在 2024-05-07 14:03:42,"BlueZeros" @.***> 写道:

ming 7b:python -m fastchat.serve.cli --model-path {path_to_checkpoint} \ # 模型路径 --conv_template bloom \ # prompt --max-new-token 512 \ # 输出最大长度 --beam-size 3 \ # beam search宽度 --temperature 1.2 # 采样温度 这里终端会报错

您好,Traceback能提供一下么

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>

Marcos114514 avatar May 08 '24 11:05 Marcos114514

这个是终端运行截图 另外,如果我去掉所有的后缀,只输入python -m fastchat.serve.cli, 是可以下载模型的(大约12GB),想问一下这个是你们的MING模型吗,你们在github上展示的demo是怎么进入的呀? 附:设备:显卡一个3090 独显24GB 在 2024-05-07 14:03:42,"BlueZeros" @.> 写道: ming 7b:python -m fastchat.serve.cli --model-path {path_to_checkpoint} \ # 模型路径 --conv_template bloom \ # prompt --max-new-token 512 \ # 输出最大长度 --beam-size 3 \ # beam search宽度 --temperature 1.2 # 采样温度 这里终端会报错 您好,Traceback能提供一下么 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.>

你好,我看不到您粘贴的截图,可以看下我创建的issues,看是否跟我是同样的问题呢?感谢 https://github.com/MediaBrain-SJTU/MING/issues/27

coldy1992 avatar May 16 '24 10:05 coldy1992