mingyue0094

Results 31 comments of mingyue0094

> I added a image captcha feature when user login to the system for prevents brute force password attacks. 你这样修改,是处于登陆安全考虑。 有另1种,登陆安全的方案,可以帮忙看能修改出来吗。 https://github.com/dushixiang/next-terminal/issues/365 账号 --> 密码 --> 登陆,判断正确错误。正确后,在进行 {谷歌口令} 二次动态密码登陆。 修改为,...

> RDP 连接提示客户端被禁止,是为什么 配置时,只输入主机名和端口。用户名和密码不要输入。

我也遇到过。 处理办法是。先发一个 ”你好,你是谁?“ 他会正常回复。然后后续在发其他的,就没问题了。

用旧版本的 quantization.py 可解决 https://huggingface.co/THUDM/chatglm3-6b/discussions/47#663cb3c8a4d7c8c9038c5312 前提是 cpu 内存,要足够 大。 或者载入时就用 已经量化后的模型。

GPU显存 足够完整的载入。那么可以用最新的,载入完整模型,然后用 `model = AutoModel.from_pretrained("./chatglm3/",trust_remote_code=True).quantize(4).cuda()` 进行完整载入,会进行gpu进行4bit 量化 后模型到gpu,后续在gpu用量化后的模型。 CPU内存,足够完整载入。那么可以用替换旧版本的 ` quantization.py `. 载入完整模型,然后用 `model = AutoModel.from_pretrained("./chatglm3/",trust_remote_code=True).quantize(4).cuda()` 进行完整载入,会进行cpu进行4bit 量化,然后转移模型到Gpu, 后续用gpu 运行量化后的模型。 内存和显存都不够完整载入。那么你没法使用 ``model = AutoModel.from_pretrained("./chatglm3/",trust_remote_code=True).quantize(4).cuda()` 。这种情况,你只能载入 已经量化后的模型。

因为我是跑的本地开源模型。 服务器访问不了运行的开源模型。 如果,能更新这个客户端模式,就好了。 谢谢大佬。

> 问题没有解决,总感觉哪里有问题,但是glm的人也不给实质性的回答。我在哔哩哔哩上问过别人,那个人说他也遇到这个问题,解决不了就放弃使用function call了。 你没“复习”,“遗忘也正常”。 微调是会调整内部参数权重,训练数据要有你新增的数据集,也要有你期望要保留功能的数据集。然后,保留功能的数据集,占比还要比你新增的数据集多很多。 上面说的,是我看到glm的人,在chatglm和 glm 项目,有回复过。意思就是上面的那样。 微调后,会遗忘。不想遗忘原来的,在微调时,就需要学习少量新的 + 大量复习旧的。

我微调后,个人的看法是, 个人 会把 开源的 5+5+5+7+6+4 这样的多边形战士。调整后,多半会变成 7+2+3+5 的多边形战士。调的好的可以做到 10+2+3+5 的多边形战士。

还要有 恢复默认的。 刚好奇 拉了下,纯属于 乱搞。搞完效果也没好。又不知道原来的是多少,又改不回去了。。。

LobeChat v0.145.13 仍然存在 ![图片](https://github.com/lobehub/lobe-chat/assets/63558866/a37fca54-47dd-47e9-8353-c3342d77777e) ![图片](https://github.com/lobehub/lobe-chat/assets/63558866/8609a3f0-c65c-4bc2-817f-4c4570cdea53) ![图片](https://github.com/lobehub/lobe-chat/assets/63558866/de6c13b6-ba8f-413e-b183-f68980b91a1e) ![图片](https://github.com/lobehub/lobe-chat/assets/63558866/18ad03c9-cc19-4ba1-bda8-f443fc0e6629) 点修改进去 就会变回来。 复制粘贴 到其他地方 也会恢复 Chrome 版本 123.0.6312.106(正式版本) (64 位)