Mmx233
Mmx233
I have no right to decide if the changes in this PR can be merged. But adding a backend toggle or a configuration field is indeed a more acceptable solution...
I suggest directly adding a separate password mechanism. I guess making this change won't be much harder than adding a button.
根据上文,我在稍微查阅代码后推测可能为: + go-resty 内存泄漏 + sqlite driver 内存泄漏 + http server 某处存在内存泄漏 + 只是大并发操作下使用过多内存,未发生泄漏
我正在本地尝试复现问题,使用的环境:Linux amd64,k3s `v1.30.4 +k3s1` (Containerd)`mmx233/alist:v3.36.0-beta2-ffmpeg` (PR #7073 测试用镜像),Database:MySQL 8.2.0,Driver:Quark-UC,Monitor:Netdata latest 使用 DD 生成 2M 大小文件 100 个,从 local 复制到 Quark,六分钟后执行删除
未在此环境复现此 Issue 提到的问题 上传:  删除: 
创建测试专用容器,切换到 Database:sqlite,Image:`xhofe/alist:v3.36.0`,Configs:All Default 在 Quark Driver 中列出文件存在问题,无法很好地完成批量删除操作,但是基本可以确定不合理的内存占用没有发生 
上述监控图表所示指标为 RES(进程占用的物理内存)和 SHR(共享内存)的和 
作为补充,在 Windows 下挂载 WebDav 并删除 100 个 Local Storage Driver 中的文件(测试环境1,MySQL),未能复现问题:  上述测试均未复现内存高占用、内存未回收的问题。请提供更多相关信息或本地测试结果
Alist 本身只在本地存储支持在本地生成缩略图,如果这个是流舟文件 app 的功能,那这很可能就是内存占用过高的主要原因
鉴于我仍然无法在本地复现,请你在本地执行调试: 1. 在创建 Docker 容器时,指定 Command 和 Args:`docker run `, 指定为 `docker run /opt/alist/alist server --no-prefix --debug` 2. 尝试打开 pprof allocs 调试信息页面:`http(s)://YOUR_DOMAIN/debug/pprof/allocs?debug=1`,如果是 alist 界面说明第一步未成功 3. 进行一些操作,使内存暴增但未引起进程退出 4. 刷新第二步打开的页面,复制所有内容保存到 txt 5....