chat-ollama icon indicating copy to clipboard operation
chat-ollama copied to clipboard

[讨论] 历史会话存储机制

Open meokey opened this issue 10 months ago • 3 comments

我留意到最新的功能,历史会话存储,是采用浏览器内置indexDB来实现的。这个方案的好处是性能很高,隐私性很好,而且存储的容量也几乎没有上限。

但是,缺点是同步性不能说很差吧,根本没有。换个浏览器,换个机器,以前的记录就全没了。这样不是很方便现在人手多设备的现状。而且,也几乎没有导出/导入机制。

能不能增加用户,和(可选的)服务端用户存储?仍然用indexDB作为本地高速缓存,但是在合适的时机(打开/关闭页面等),更新的会话内容将会在本机和服务端双向同步?

meokey avatar Apr 05 '24 15:04 meokey

我留意到最新的功能,历史会话存储,是采用浏览器内置indexDB来实现的。这个方案的好处是性能很高,隐私性很好,而且存储的容量也几乎没有上限。

但是,缺点是同步性不能说很差吧,根本没有。换个浏览器,换个机器,以前的记录就全没了。这样不是很方便现在人手多设备的现状。而且,也几乎没有导出/导入机制。

能不能增加用户,和(可选的)服务端用户存储?仍然用indexDB作为本地高速缓存,但是在合适的时机(打开/关闭页面等),更新的会话内容将会在本机和服务端双向同步?

最近我也意识到了这方面的需求。

ChatOllama的初衷是基于Ollama的完全本地化的知识库问答,甚至没有考虑像OpenAI等模型API的支持。有趣的是,这个项目本质是又是一个Web应用,其形态本身又是一个基于网络,这就跟初衷存在冲突。

随着大家越来越多的使用,我相信有些用户也是期望在服务器部署,供多人使用。应用又是基于浏览器的,那自然会有类似于你的需求,跨设备,跨浏览器。

接下来我会规划这方面的需求,逐步对数据实现服务端存储,并支持多用户及访问控制。

sugarforever avatar Apr 05 '24 17:04 sugarforever

最近我也意识到了这方面的需求。

ChatOllama的初衷是基于Ollama的完全本地化的知识库问答,甚至没有考虑像OpenAI等模型API的支持。有趣的是,这个项目本质是又是一个Web应用,其形态本身又是一个基于网络,这就跟初衷存在冲突。

随着大家越来越多的使用,我相信有些用户也是期望在服务器部署,供多人使用。应用又是基于浏览器的,那自然会有类似于你的需求,跨设备,跨浏览器。

接下来我会规划这方面的需求,逐步对数据实现服务端存储,并支持多用户及访问控制。

考虑到这是个简单的应用,我觉得如果你没有太大野心的话 (手动狗头),用户访问控制可以极简化,毕竟都是私人部署,甚至部署到公网的需求都会很少。不需要花太多精力。

至于大模型和第三方支持,还是以前讨论过的,有几个人家里有H100支持自有模型啊,呵呵,还是用现成的API更现实。我觉得似乎可以考虑用One-API之类的库来简化对大模型和第三方的支持,集中精力开发你想要的特色功能。

meokey avatar Apr 05 '24 17:04 meokey

导入和导出可以安排

satrong avatar Apr 05 '24 23:04 satrong