Henry Yee
Henry Yee
检测条件主要是根据你的审核规则来进行判断的,检测的目的更多的是为了通过审核规则来规范化SQL语句,而不是单纯的语法检测。
自动任务不建议大规模使用,当前审核规则仅能对语法层进行相关检测 但包含业务逻辑错误是无法通过工具测试的。大规模的使用很有可能导致这样的情况发生 所以自动任务应该是小范围,固定化的场景使用
如果是这样 那也就不需要审核平台了
很抱歉 目前没有很多的空余时间做语言翻译的工作,如有兴趣欢迎参与
> 支不支持本地部署的embedding模型?例如 api 地址是 http://127.0.0.1/v1 的类 openai 接口? 基于现有的框架设计无法实现这样的自定义需求,本地部署可以使用 ollama
@arvinxx 已根据建议全部进行修改
@arvinxx 已修改完毕
已修复智谱 AI embedding 调用失败的问题 [#214491c](https://github.com/lobehub/lobe-chat/pull/4208/commits/264491c2097ec27deb5573e489c4b4c4be153390)
> 几个点讨论下: > > 1. 最核心是考虑下业务建模,未来 Embedding model 是全局单例还是说不同场景不一样? > > 这个向量化的模型是所有场景都复用同一个模型,还是说某个特定场景下(知识库)使用的,未来是否有其他可能会扩展的需要用向量化的场景? > > 像 System Agent 这个变量就是采用的 `SYSTEM_AGENT="topic=openai/gpt-3.5-turbo,translation=anthropic/claude-1"`的方式,允许不同类型的助手(总结话题,翻译)采用不同的默认模型。这个业务逻辑的差别会影响命名的决策,并影响UI展示,以及未来的扩展性。 > > 还有就是 `DEFAULT_EMBEDDING_MODEL` 这个名称要考虑下和其他关联元素放在一起的可拓展性。比如修改默认模型其实是用的是助手的逻辑, `DEFAULT_AGENT_CONFIG="model=gemini-1.5-pro,provider=google"`,然后这个config 里面除了 model 还有其他别的配置可以自定义。 > >...
> 另外我之前这块的输出实现也是有点存疑的: > > https://github.com/lobehub/lobe-chat/blob/60dcf19037bc818bc1287b6ece96b0a7ebda3d6f/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts#L233-L247 > > 因为原始的 OpenAI 的 embedding 输出的结构是 > > ```js > [{ > "object": "embedding", > "index": 0, > "embedding": [ > -0.006929283495992422, > -0.005336422007530928,...