weekly
weekly copied to clipboard
【开源自荐】在浏览器中运行 LLM并进行对话,无需服务器,使用 WebGPU进行加速
项目地址: https://github.com/Ryan-yang125/ChatLLM-Web Demo: https://chat-llm-web.vercel.app
特点:
-
🤖 一切都在浏览器内运行,无需服务器支持,并且使用 WebGPU 进行加速。
-
⚙️ 模型在 Web Worker 中运行,确保不会阻塞用户界面,提供无缝体验
-
🚀 通过在 Vercel 上单击一次即可轻松免费部署,不到 1 分钟,即可获得自己的 ChatLLM Web。
-
💾 支持模型缓存,只需要下载模型一次。
-
💬 多对话聊天,所有数据都存储在浏览器中,保护隐私。
-
📝 支持 Markdown 和流式响应:数学、代码高亮等。
-
🎨 响应式和设计良好的 UI,包括暗黑模式。