wangxb96
wangxb96
首先对应的taskingai容器要配置并启动,在AutoQAG.py里配置好相关的url和api-key(包含taskingai和调用的大模型),然后通过命令行启动streamlit run AutoQAG.py,即可以得到类似上述链接,可以通过上述链接访问服务
这里的api应该为taskingai的base_url和api_key,请docker启动tasingai后配置这些项,然后在openai_api里添上相应的大模型api
最开始需要安装配置 https://github.com/TaskingAI/TaskingAI 系统
本地python version为3.11.5
update一下,最新的版本应该都行 :) Sent from my iPhone ------------------ 原始邮件 ------------------ From: Zhangqi ***@***.***> 发送时间: 01/03/2025, 21:11 To: wangxb96/RAG-QA-Generator ***@***.***> 抄送: KindLab ***@***.***>, Mention ***@***.***> Subject: Re: [wangxb96/RAG-QA-Generator] 你们没有给出使用哪个python版本 (Issue #5) @wangxb96 https://pypi.org/project/langchain/#history https://pypi.org/project/langchain-community/#history 您好,没找到requirement里面那两个版本的langchain和langchain_community,没有langchain==0.10.0和langchain_community==0.1.0...
embedding_model_id为嵌入模型的id(非生成的大模型),用于将文本向量化并存储到taskingai向量数据库的模型。前置条件是安装好taskingai rag数据库,分别配置好嵌入模型和生成大模型,填入对应的信息即可。
QA对结果生成默认 > > 请问qa对结果显示不全解决了吗?我也是这个问题 > > 没有诶 (TヘTo) QA对默认只显示前3条,可更改下述参数以满足需求: if st.session_state.qa_pairs: st.subheader("前3个QA对预览") cols = st.columns(3) for i, qa in enumerate(st.session_state.qa_pairs[:3]): with st.expander(f"**QA对 {i + 1}**", expanded=True): st.markdown("**问题:**") st.markdown(qa['question']) st.markdown("**答案:**") st.markdown(qa['answer'])...
已经更新了
因为有两个版本的文件,所以app.py对应的可以是AutoQAGPro.py等相应文件。下面的配置是对应的RAG系统TaskingAI(https://github.com/TaskingAI/TaskingAI)的配置,需要先安装和设置好相应的软件,创建和设置API,可以通过本项目生成和写入QA数据到对应的数据库中。
如果有错误,请查看一下文件格式,也可写个简单的txt文件测试一下