Shijie Yu
Shijie Yu
 我这边验证到是因为开了持久化缓存引起的,开启缓存后,第二次编译时产物中没有custom-wrapper相关的代码。解决方式: 1、关闭缓存 2、如上,页面index.config.ts中增加 usingComponents: { 'custom-wrapper': '/custom-wrapper', }
same problem
同问,求大佬赐教
> 主要是以下 3 方面可以优化: > > 1. 优化 text_split 算法,使匹配出的结果作为上下文时能够提供更合理的推理/回答依据; > 2. 优化 embedding 模型,提升语义向量化的效果,使得语义匹配过程中能够匹配出最满足要求的文本段落作为上下文; > 3. 优化 LLM 模型,使得给定提问相同情况下,得到更理想的推理/回答结果。 大佬有优化计划吗,本人AI小白,您说的这些都不是太懂~ 大部分人的使用场景应该都是通过私有的文档和代码训练出个人或团队专属的知识库,然而并不是每个团队都有做AI的同学😂,希望这块使用门槛能降一降
@imClumsyPanda @SilentMoebuta 好的谢谢,正在尝试。数据集这块有点疑问,真的需要手工一条条生成吗,我看到ChatGLM-6B项目下有同样的问题,这块大佬们有没有什么建议:https://github.com/THUDM/ChatGLM-6B/issues/364
> langchain方式其实是拓展性最高的,只要在本地知识库加内容就行,实时加知识。 不过这种方式目前看有2个劣势: 匹配返回topk,知识库不全的话,匹配的内容完全不相关。 多轮对话,好像不太自然。 是的,第一个劣势比较要命。自己处理数据集又非常麻烦
明白了,给各位大佬点赞👍
> > @tutuxxx 可以参考 ChatGLM-6B 模型项目本身的 README,其中有[关于 Tuning 的部分](https://github.com/THUDM/ChatGLM-6B#%E5%8F%8B%E6%83%85%E9%93%BE%E6%8E%A5) > > 显存确实不高,但是好慢呀  三个P40,三条数据,微调搞了两个半小时
> > > > @tutuxxx 可以参考 ChatGLM-6B 模型项目本身的 README,其中有[关于 Tuning 的部分](https://github.com/THUDM/ChatGLM-6B#%E5%8F%8B%E6%83%85%E9%93%BE%E6%8E%A5) > > > > > > > > > 显存确实不高,但是好慢呀 > > > > > >  三个P40,三条数据,微调搞了两个半小时 >...
> > > > > > @tutuxxx 可以参考 ChatGLM-6B 模型项目本身的 README,其中有[关于 Tuning 的部分](https://github.com/THUDM/ChatGLM-6B#%E5%8F%8B%E6%83%85%E9%93%BE%E6%8E%A5) > > > > > > > > > > > > > > > 显存确实不高,但是好慢呀 >...