mingyue0094
mingyue0094
> I added a image captcha feature when user login to the system for prevents brute force password attacks. 你这样修改,是处于登陆安全考虑。 有另1种,登陆安全的方案,可以帮忙看能修改出来吗。 https://github.com/dushixiang/next-terminal/issues/365 账号 --> 密码 --> 登陆,判断正确错误。正确后,在进行 {谷歌口令} 二次动态密码登陆。 修改为,...
> RDP 连接提示客户端被禁止,是为什么 配置时,只输入主机名和端口。用户名和密码不要输入。
我也遇到过。 处理办法是。先发一个 ”你好,你是谁?“ 他会正常回复。然后后续在发其他的,就没问题了。
用旧版本的 quantization.py 可解决 https://huggingface.co/THUDM/chatglm3-6b/discussions/47#663cb3c8a4d7c8c9038c5312 前提是 cpu 内存,要足够 大。 或者载入时就用 已经量化后的模型。
GPU显存 足够完整的载入。那么可以用最新的,载入完整模型,然后用 `model = AutoModel.from_pretrained("./chatglm3/",trust_remote_code=True).quantize(4).cuda()` 进行完整载入,会进行gpu进行4bit 量化 后模型到gpu,后续在gpu用量化后的模型。 CPU内存,足够完整载入。那么可以用替换旧版本的 ` quantization.py `. 载入完整模型,然后用 `model = AutoModel.from_pretrained("./chatglm3/",trust_remote_code=True).quantize(4).cuda()` 进行完整载入,会进行cpu进行4bit 量化,然后转移模型到Gpu, 后续用gpu 运行量化后的模型。 内存和显存都不够完整载入。那么你没法使用 ``model = AutoModel.from_pretrained("./chatglm3/",trust_remote_code=True).quantize(4).cuda()` 。这种情况,你只能载入 已经量化后的模型。
因为我是跑的本地开源模型。 服务器访问不了运行的开源模型。 如果,能更新这个客户端模式,就好了。 谢谢大佬。
> 问题没有解决,总感觉哪里有问题,但是glm的人也不给实质性的回答。我在哔哩哔哩上问过别人,那个人说他也遇到这个问题,解决不了就放弃使用function call了。 你没“复习”,“遗忘也正常”。 微调是会调整内部参数权重,训练数据要有你新增的数据集,也要有你期望要保留功能的数据集。然后,保留功能的数据集,占比还要比你新增的数据集多很多。 上面说的,是我看到glm的人,在chatglm和 glm 项目,有回复过。意思就是上面的那样。 微调后,会遗忘。不想遗忘原来的,在微调时,就需要学习少量新的 + 大量复习旧的。
我微调后,个人的看法是, 个人 会把 开源的 5+5+5+7+6+4 这样的多边形战士。调整后,多半会变成 7+2+3+5 的多边形战士。调的好的可以做到 10+2+3+5 的多边形战士。
还要有 恢复默认的。 刚好奇 拉了下,纯属于 乱搞。搞完效果也没好。又不知道原来的是多少,又改不回去了。。。
LobeChat v0.145.13 仍然存在     点修改进去 就会变回来。 复制粘贴 到其他地方 也会恢复 Chrome 版本 123.0.6312.106(正式版本) (64 位)