ms-agent icon indicating copy to clipboard operation
ms-agent copied to clipboard

MS-Agent: Lightweight Framework for Empowering Agents with Autonomous Exploration in Complex Task Scenarios

Results 104 ms-agent issues
Sort by recently updated
recently updated
newest added

## KeyError: 'phantom_image_enhancement' ![image](https://github.com/modelscope/modelscope-agent/assets/19670365/d3a0906a-e851-4144-ab6c-afdf5e9d98e1)

tool

感谢qwen团队的工作; 请教一下,使用lora rank=8,alpha=32,target module=[c_attn]时,可训练的参数量占比大概是多少呢?我试了下qwen-chat下的target module=[c_attn,c_proj,w1,w2]微调,占比大概在28%,target module改成[c_attn],trainable parameters还是能占到27%左右,请问这个agent微调的参数量会差不多嘛?是不是太高了?

question
llm

# 对于论文中提到的数据集生成方法,可以发下代码参考一下吗? 在我的场景里有很多自定义工具,包括回复和调用逻辑都不是很通用. 所以我想生成一版Agent testset, 但是如何根据in-context demonstrations 让GPT生成Instruction不太明白. 没有看到开源部分相关的代码. 如果可以的话,请提供下代码参考下~谢谢 ``` https://arxiv.org/pdf/2309.00986.pdf Initially, a set of random in-context demonstrations were provided to ChatGPT for generating an instruction.This instruction could either...

question
llm

### Initial Checks - [X] I have searched GitHub for a duplicate issue and I'm sure this is something new - [X] I have read and followed [the docs &...

bug

您好,我在本地测试基于modelscope-agent-7b作为大脑的Agent时,其效果与魔搭创空间上ModelScopeGPT的在线测试差距明显。 比如本地测试时模型并不能处理“写一个20字以内的故事,再念出来”这样需要多步调用工具的单句请求,只有多次请求才能实现;而ModelScopeGPT却可以执行得很好,同时速度也要快很多。 请问ModelScopeGPT所基于的LLM是什么呢?和modelscope-agent-7b同样是在Qwen-7B基础上微调的吗? 如果尚不能透露具体信息,也想了解一下底座模型以及参数规模是什么,期待您的回复!

enhancement
help wanted
llm

启动WEBUI 直接退出,这个谁碰到过? D:\anaconda3\envs\modelscope-agent\python.exe D:\langchain\modelscope-agent-master\demo\msgpt\app.py 2023-10-16 14:23:04,813 - modelscope - INFO - PyTorch version 2.1.0 Found. 2023-10-16 14:23:04,814 - modelscope - INFO - Loading ast index from C:\Users\myisa\.cache\modelscope\ast_indexer 2023-10-16 14:23:04,890 -...

wontfix
llm
legacy

![image](https://github.com/modelscope/modelscope-agent/assets/141010882/1fa8b8b1-52b5-4a6d-b6db-f98f8ce778f8) ![image](https://github.com/modelscope/modelscope-agent/assets/141010882/915eb8c3-89fc-4bdd-94b8-1832ebfe00ed) 问第一个问题后台没回应,问第二个问题才会回复第一个问题的答案,然后问第三个问题也是才会回复第二个问题的答案,以此类推,然后前端也是没有收到回复。

wontfix
legacy

nothing to do

enhancement
good first issue
help wanted
framework