LiuYiShou

Results 10 comments of LiuYiShou

任务类型:文档修复--报名 计划翻译文档:Doc-VQA\ KIE

> > > > 看了一下代码,是模型加载的方式不同,可以参考下cli_demo中的模型加载方式(FineTuneVisualGLMModel被调用了,init方方法中做了一些逻辑),修改web_demo&api_demo。 可以具体说以下吗,改了还是一样的错误

我有两个卡,想使用1卡进行微调 ,但是不管是export CUDA_VISIBLE_DEVICES=1还是运行脚本前加上CUDA_VISIBLE_DEVICES=1,模型始终会调用0卡,显示信息如下: ![image](https://github.com/THUDM/VisualGLM-6B/assets/50820616/056ece2c-b0a0-4bff-b275-1db4a372d51e) hao好像是默认设置的,但是又不知道在哪改(哭死)

> https://github.com/THUDM/VisualGLM-6B/blob/main/finetune/finetune_visualglm_qlora.sh#L55 > > `--include localhost:0`改成对应的卡号,也可以多卡,比如`--include localhost:2,3,4` 谢谢,可以用了

> > > 请问怎么进行多卡训练 > > > > > > 你好,论文中的实验都是单卡训练和测试的。至于多卡训练,可以参考PyTorch教程进行修改。根据我们之前的实验,目前代码中的超参数在多卡训练的情况下可能需要调整,否则精度会偏低一些。 > > 您好,我将代码实现了多卡运行(4gpus)总的batchsize为12,请问学习率需要进行相关修改吗,btw我在自己修改超参后与您的结果还是有0.5%的差距,请问您能否提供一些超参的修改建议呢?谢谢 您好,请教一下代码如何实现的多卡训练?😊

> 用的数据集是IM2LATEX-100K的子集,需要改config里面的字典长度,根据自己的数据集字典长度修改 > 请问一下,你的印刷体公式数据集是使用的IM2LATEX-100K这个数据集吗?如果是使用印刷体公式的数据集来训练模型需要修改什么参数吗?谢谢 用的数据集是IM2LATEX-100K的子集,需要改config里面的字典长度,根据自己的数据集字典长度修改

这个serving库真的一点都没人维护吗,用的真心悸

> 请问你解决了嘛,修改成功能剪枝yolo5m6模型了嘛 直接对m6剪枝会有key找不到报错,我用的方法是直接跳过没有找到的层

> EVC模块 请问EVC模块在代码的哪个位置呢