ms-agent
ms-agent copied to clipboard
MS-Agent: Lightweight Framework for Empowering Agents with Autonomous Exploration in Complex Task Scenarios
## KeyError: 'phantom_image_enhancement' 
感谢qwen团队的工作; 请教一下,使用lora rank=8,alpha=32,target module=[c_attn]时,可训练的参数量占比大概是多少呢?我试了下qwen-chat下的target module=[c_attn,c_proj,w1,w2]微调,占比大概在28%,target module改成[c_attn],trainable parameters还是能占到27%左右,请问这个agent微调的参数量会差不多嘛?是不是太高了?
# 对于论文中提到的数据集生成方法,可以发下代码参考一下吗? 在我的场景里有很多自定义工具,包括回复和调用逻辑都不是很通用. 所以我想生成一版Agent testset, 但是如何根据in-context demonstrations 让GPT生成Instruction不太明白. 没有看到开源部分相关的代码. 如果可以的话,请提供下代码参考下~谢谢 ``` https://arxiv.org/pdf/2309.00986.pdf Initially, a set of random in-context demonstrations were provided to ChatGPT for generating an instruction.This instruction could either...
### Initial Checks - [X] I have searched GitHub for a duplicate issue and I'm sure this is something new - [X] I have read and followed [the docs &...
您好,我在本地测试基于modelscope-agent-7b作为大脑的Agent时,其效果与魔搭创空间上ModelScopeGPT的在线测试差距明显。 比如本地测试时模型并不能处理“写一个20字以内的故事,再念出来”这样需要多步调用工具的单句请求,只有多次请求才能实现;而ModelScopeGPT却可以执行得很好,同时速度也要快很多。 请问ModelScopeGPT所基于的LLM是什么呢?和modelscope-agent-7b同样是在Qwen-7B基础上微调的吗? 如果尚不能透露具体信息,也想了解一下底座模型以及参数规模是什么,期待您的回复!
启动WEBUI 直接退出,这个谁碰到过? D:\anaconda3\envs\modelscope-agent\python.exe D:\langchain\modelscope-agent-master\demo\msgpt\app.py 2023-10-16 14:23:04,813 - modelscope - INFO - PyTorch version 2.1.0 Found. 2023-10-16 14:23:04,814 - modelscope - INFO - Loading ast index from C:\Users\myisa\.cache\modelscope\ast_indexer 2023-10-16 14:23:04,890 -...
  问第一个问题后台没回应,问第二个问题才会回复第一个问题的答案,然后问第三个问题也是才会回复第二个问题的答案,以此类推,然后前端也是没有收到回复。