weekly icon indicating copy to clipboard operation
weekly copied to clipboard

【开源自荐】在浏览器中运行 LLM并进行对话,无需服务器,使用 WebGPU进行加速

Open Ryan-yang125 opened this issue 1 year ago • 0 comments

项目地址: https://github.com/Ryan-yang125/ChatLLM-Web Demo: https://chat-llm-web.vercel.app

特点:

  • 🤖 一切都在浏览器内运行,无需服务器支持,并且使用 WebGPU 进行加速。

  • ⚙️ 模型在 Web Worker 中运行,确保不会阻塞用户界面,提供无缝体验

  • 🚀 通过在 Vercel 上单击一次即可轻松免费部署,不到 1 分钟,即可获得自己的 ChatLLM Web。

  • 💾 支持模型缓存,只需要下载模型一次。

  • 💬 多对话聊天,所有数据都存储在浏览器中,保护隐私。

  • 📝 支持 Markdown 和流式响应:数学、代码高亮等。

  • 🎨 响应式和设计良好的 UI,包括暗黑模式。

截图

cover

Ryan-yang125 avatar May 09 '23 05:05 Ryan-yang125