turndown
turndown
同样的问题
> 值得注意的是,一开始文件并没有出现在autodl-tmp里 > > ``` > root@8e103738cdd9:~# ls > Linly-Talker autodl-pub autodl-tmp miniconda3 nltk_data tf-logs > ``` 你好,请问下这个autodl-tmp挂载映射的是什么内容啊?我本来以为是把linly-talk的代码挂载到这里,但是我看启动的容器里已经有代码了,root/linly-talk就是代码。 另外如果我启动外部最新的代码autodl-tmp挂载,报错模型找不到错误比较多; 而直接启动容器自带的root/linly-talk,只报了edgetts模块错误。 启动的都是webui.py,我哪里操作有问题吗?
> 你好,我在使用镜像过程遇到问题: docker run -it --gpus "device=1" -v /data/Linly-Talker:/root/autodl-tmp registry.cn-beijing.aliyuncs.com/codewithgpu2/kedreamix-linly-talker:zYGdW3yO3D /bin/bash 执行启动容器,然后修改config.py里的ip为0.0.0.0,在launch中把share设置为true,再到其他的局域网设备访问,结果遇到报错见截图。 如下问题: 1.镜像里没有模型文件吗?都需要重新下载吗? 2.这个局域网要如何访问,我设置的有没有问题?  后面发现不需要挂载下载的代码目录,镜像里自带了代码/root/Linly-Talker,然后启动的时候需要把share改为false,第一个个性化角色互动窗口配置数字人,选择自带的模型就能生成了。 但是在musetalk数字人实时对话窗口合成视频的时候就显示错误,没有提示其他的告警,要怎么处理呢?
> 多卡加载的时候在界面上 n-gpu 里选择多张卡。 请问下你说的这个界面指的是那个,web页面的launch model上没有找到这个选择 我现在是直接下载了sd3-medium这个模型使用,然后报这个错误,实际上卡的内容还是多的  
> launch界面可以看到模型具体使用的哪张卡 安装模型时,n-gpu就是分配gou的数量 > […](#) > ---原始邮件--- 发件人: ***@***.***> 发送时间: 2024年10月9日(周三) 上午10:49 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [xorbitsai/inference] 多张gpu有空闲但是提示某一块gpu没有内存 (Issue #2345) 多卡加载的时候在界面上 n-gpu 里选择多张卡。 请问下你说的这个界面指的是那个,web页面的launch model上没有找到这个选择 我现在是直接下载了sd3-medium这个模型使用,然后报这个错误,实际上卡的内容还是多的 image.png (view...
> 没注意你这个模型是否可以选择,默认都可以,可能模型有限制 是我的问题,我用pip默认安装的版本是0.13的,后面用源码安装0.15最新的有这些选项。感谢你的答复
I get this error and don't know how to solve it: ` => CACHED [api go-base 2/3] COPY sharedLibs/go-html-to-md /app/sharedLibs/go-html-to-md 0.0s => ERROR [api go-base 3/3] RUN cd /app/sharedLibs/go-html-to-md &&...
same problem