SD Li

Results 7 comments of SD Li

I finally found a suitable solution. We should not use the gradio client on the server side of Next.js, but instead use it on the client side. Also, by adding...

> 类似文心一言是吧?我之前看他们的文档,似乎没有类似chatgpt的assistant的功能,这个是openai去年十一月那会发布的,我是创建了assistant来做简历的检索。如果文心一言api没这个功能,那是不是得用langchain一类的外部库,我之前用langchain和llama2-7B做过chat with pdf,感觉有点吃性能,配置环境也有点麻烦。要是有别的实现方式可以在这里介绍一下 > > 如果哪位朋友愿意做这个接口的话,可以跟我说一下,我给你个协作者然后拉个分支 其实我一开始的需求是想要更改openai包请求的接口,然后我发现通过设置OPENAI_BASE_URL环境变量就可以解决了 国内有一些提供了和openai官方api参数一致的api,但是我试了下并不支持使用assistant。。 如果想要不使用assistant的话可能用langchain一类的确实会方便一些,环境配置倒是还好,配置麻烦的应该主要是在llama上? 说到环境配置,是不是导出一个requirement.txt之类的会好一些呢。。我一开始跑起来的时候还得一个个模块去安装来着😂 另外,这个接口我可以尝试着做一下?刚好最近在试着用langchain做类似的东西,这个也可以练练手

> https://colab.research.google.com/drive/1RNKxCdap6yCgisc6yjOfpc8V9vSd4sTA?usp=sharing 谢谢,我已经发起请求了哈。分支我后面提交了跟你说,我现在尝试一下

> > > 类似文心一言是吧?我之前看他们的文档,似乎没有类似chatgpt的assistant的功能,这个是openai去年十一月那会发布的,我是创建了assistant来做简历的检索。如果文心一言api没这个功能,那是不是得用langchain一类的外部库,我之前用langchain和llama2-7B做过chat with pdf,感觉有点吃性能,配置环境也有点麻烦。要是有别的实现方式可以在这里介绍一下 > > > 如果哪位朋友愿意做这个接口的话,可以跟我说一下,我给你个协作者然后拉个分支 > > > > > > 其实我一开始的需求是想要更改openai包请求的接口,然后我发现通过设置OPENAI_BASE_URL环境变量就可以解决了 国内有一些提供了和openai官方api参数一致的api,但是我试了下并不支持使用assistant。。 如果想要不使用assistant的话可能用langchain一类的确实会方便一些,环境配置倒是还好,配置麻烦的应该主要是在llama上? > > 说到环境配置,是不是导出一个requirement.txt之类的会好一些呢。。我一开始跑起来的时候还得一个个模块去安装来着😂 > > 另外,这个接口我可以尝试着做一下?刚好最近在试着用langchain做类似的东西,这个也可以练练手 > > 啊哈,我懂了,调用代理api是吧,这个assistant确实不好弄,langchain的话你可以尝试一下,然后可不可以到时候跟我说一下创建个分支,给大伙儿做个贡献,我把我之前做的基于langchain的llama2项目的colab链接发你,你可以直接在那里面看到各个版本的包,我估计把model部分换一下就行,然后改一下pipeline。你点链接以后申请一下,我给你个查看者权限 > >...

> ![屏幕截图 2024-01-09 232903](https://private-user-images.githubusercontent.com/102876303/295254036-da0fd657-a7d6-4e6e-a66b-9c26757995cb.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MDQ4NzE5MTcsIm5iZiI6MTcwNDg3MTYxNywicGF0aCI6Ii8xMDI4NzYzMDMvMjk1MjU0MDM2LWRhMGZkNjU3LWE3ZDYtNGU2ZS1hNjZiLTljMjY3NTc5OTVjYi5wbmc_WC1BbXotQWxnb3JpdGhtPUFXUzQtSE1BQy1TSEEyNTYmWC1BbXotQ3JlZGVudGlhbD1BS0lBVkNPRFlMU0E1M1BRSzRaQSUyRjIwMjQwMTEwJTJGdXMtZWFzdC0xJTJGczMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDI0MDExMFQwNzI2NTdaJlgtQW16LUV4cGlyZXM9MzAwJlgtQW16LVNpZ25hdHVyZT01YzI4MTVhNTBkNTA3MDcxMjQ4MTA5Yjg1YTk3ZTUyYjM4NWY0MjE0ZGVmZDA3MzMwMjliNTNiZjg4NDdhMDc5JlgtQW16LVNpZ25lZEhlYWRlcnM9aG9zdCZhY3Rvcl9pZD0wJmtleV9pZD0wJnJlcG9faWQ9MCJ9.MU9SNTrkoyyH2JqXdOrVZEl3cU5q8LKwMROnpnJcZNo) > > 可以正常扫码登录boss直聘,如图所示在给hr发送的求职信息不全并且看起来似乎有些怪,在发送第二个求职信息的时候输出的是乱码,随后不再继续检索职位喝发送信息。 > > 如下面的代码所示,之前遇到一个报错然后我把langchain_functions.py文件中的temperature从3改成了2,不知道对我上面的错误会不会有影响,希望得到解答,谢谢 llm = ChatOpenAI(temperature=2, openai_api_base=OPENAI_BASE_URL, openai_api_key=OPENAI_API_KEY) > > 并且好像没有创建asistant 修改temperature不会有影响,从图里看好像第一次发送求职信的时候就出问题了?但是这输出的内容有点怪异。。原本的prompt应该不会输出这个才对 如果使用的自定义的base url的话是不会走assistant的,因为很多的代理api并不支持创建assistant,如果要使用assistant的话环境变量里不要填OPENAI_BASE_URL

前几天都没空看。。下午或者这两天我找时间排查一下吧

> 报错内容如下: OpenAI version is compatible. Traceback (most recent call last): File "c:\Users\xxx\Downloads\auto_job_find\write_response.py", line 183, in vectorstore = get_vectorstore(chunks) ^^^^^^^^^^^^^^^^^^^^^^^ File "c:\Users\xxx\Downloads\auto_job_find\langchain_functions.py", line 54, in get_vectorstore vectorstore = FAISS.from_texts(texts=text_chunks, embedding=embeddings)...