hyhuc0079

Results 8 issues of hyhuc0079

gpt模型训练的时候,报了个错是不能访问本地的1107端口 虽然可以正常训练,但是这个端口是做什么的呀? Using 16bit Automatic Mixed Precision (AMP) GPU available: True (cuda), used: True TPU available: False, using: 0 TPU cores IPU available: False, using: 0 IPUs HPU available: False,...

又不小心双发了,麻烦大佬帮忙删除一下

啊啊啊啊,可恶一回车就发出来了! 不知道为什么新版webui执行操作都是python3,如果你是win系统你会收到一个不知原因的报错,这是因为win环境没有python3 如果你的环境没有python3,你直接把python.exe复制然后把副本改名成python3.exe就可以了

每次启动都要下一些modelscope的包,如果用了魔法还巨慢,好像反向对海外地址做了限速,这是魔塔的模型吗?

我看要不直接在read me里提供haggingface地址让用户自己去下吧? 另外支持damo的其他语种模型吗? 做成用户自己填模型字段自己去下对应语种模型如何 错误信息粘贴给你 Traceback (most recent call last): File "D:\ai2vedio\Modelscope_Faster_Whisper_Multi_Subtitle\venv\lib\site-packages\gradio\routes.py", line 534, in predict output = await route_utils.call_process_api( File "D:\ai2vedio\Modelscope_Faster_Whisper_Multi_Subtitle\venv\lib\site-packages\gradio\route_utils.py", line 226, in call_process_api output = await app.get_blocks().process_api(...

1.这个最好也放在项目目录比较好吧毕竟不一定所有人都是所有模型扔c 2.英文的因为报错了我没法试用,日文这个transformer模型是走cpu做推理的 3.这个模型我之前也用过,毕竟是haggingface上唯一一个jp2zh的,但这效果嘛。。。哎。。 你自己看吧。。。 测试用的faster whisper可能听写也有一些错误 我推荐那个什么什么sakura的模型 https://huggingface.co/sakuraumi/Sakura-13B-Galgame 不过实现起来代码量就大多了 原文 =========我是字幕==== 1 00:00:02,480 --> 00:00:08,580 地球連邦軍 並びにジオン公国の戦士につ 地球联邦军与吉恩公国的战士 2 00:00:08,580 --> 00:00:10,580 我々はデラーズフリート 我们是德勒斯弗里德 3 00:00:10,580 --> 00:00:12,929 デラーズフリート? 德勒斯弗里德?...

1.好像即便不选择提取音频也会在项目目录下生成audio和output两个音频文件 2.模型文件是不是可以加个配置字段可以定义路径比较好,现在的版本只能把缓存地址指向本地,如果可以的话最好能设置模型路径 3.希望源文件可以支持批量或者目录 4.在加载字幕到原视频的时候是调用cpu的,虽然也挺快的但是是不是用gpu更好一点 5.翻译报错了 2024-01-29 17:49:00,706 - modelscope - INFO - initiate model from ./models_from_modelscope\damo\nlp_csanmt_translation_en2zh 2024-01-29 17:49:00,706 - modelscope - INFO - initiate model from location ./models_from_modelscope\damo\nlp_csanmt_translation_en2zh. 2024-01-29 17:49:00,707...