D-Blue
D-Blue
Yes, it works, thank you so much! @chenfei-wu
因为你的梯子不稳定,你也可以尝试不挂梯子进ui后再挂。
你挂了隧道吗,如果用clash的话是需要开tun模式的
> clash开了还是不行 1. service mode的地球是不是绿的。 2. 可以考虑换节点或者换机场。
You shouldn't pip install ldm. It said you don't have ldm is because the symbolic link didn't successfully build. You need to rebuild it or simple copy `visual-chatgpt/ControlNet/ldm`, `visual-chatgpt/ControlNet/cldm`, `visual-chatgpt/ControlNet/annotator`...
所以这是什么? 
> 大佬,有没靠谱的requirement.txt ---原始邮件--- 发件人: ***@***.***> 发送时间: 2023年3月12日(周日) 晚上9:10 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [microsoft/visual-chatgpt] # 中国人不骗中国人,把star都取消了吧 (Issue #121) 所以这是什么? — Reply to this email directly, view it on GitHub,...
> 你的对话为什么可以显示图片,我的对话就告诉我生成了图片,保存在xx位置,但图片不会在对话中显示,要怎么设置才能显示图片呢?谢谢 目前看来只有在linux上部署才会显示图片。我认为这是gradio的库对windows有兼容性问题,但是换了几个版本也没解决。
> 难怪了,我是在windows本地电脑上部署的。 我感觉这个东西就是一堆ai图片编辑模型的集合,上下文理解和对话能力还是有点欠缺,不过也有可能是我刚跑通,还没玩透,你怎么看呢? 没错,就是这样的。他的整体思路就是让gpt3.5学会使用各种工具,想法挺不错,但是目前效果不好有如下几个原因: 1. visual-gpt使用的基础语言模型是`text-davinci-003`而不是ChatGPT,因此对于上下文的理解能力比不过ChatGPT。 2. 现阶段的语言模型的逻辑链还是不够长,导致对于这种相对复杂的操作难以控制。具体体现于,有时候会错误的给出指令,如,应该给三个参数,而它只给了两个,从而使得结果报错。又比如,有时候会将与图像不相关的表述输入下游模型,导致结果不符合预期。而事实上`text-davinci-003`针对命令服从是进行了强化的,仍旧表现不佳,这也就是为什么没有使用看似更强大的ChatGPT(我试了换成chatgpt,基本无法正确的发送命令) 3. 如Stable Diffusion这样的画图模型目前还是依赖于人为精心设计的prompt才能出比较好的图,而使用自动prompt生成模型生成的prompt效果并不好。 4. visual-gpt使用的几个下游模型本身效果不好。比如语意分割模型,经常分割错误,导致inpaint怎么改都没用,这个就需要下游模型进一步提升。 5. 使用语言在模型间进行信息传递本身就是有损的,无论是从visGPT到下游模型,还是下游模型给visGPT的反馈,区区一句话,很容易词不达意,从而导致最终效果变差。 所以我认为如果想要提升visGPT的效果有如下三点: 1. 对于每个任务更精细的设计prompt,帮助语言模型理解自己要做什么 2. 对下游模型进行finetune 3. 抛弃这个思路,直接做多模态