yanguangqing

Results 12 issues of yanguangqing

## 环境 1.系统环境:MegStudio 2.MegEngine版本: 3.python版本:3.7 4.模型名称:bert cls mgpc ## 复现步骤 1. 下载models 2. 按照readme提示在MegStudio运行 3. 没有tuple ## 请提供关键的代码片段便于追查问题 ## 请提供完整的日志及报错信息 ![image](https://user-images.githubusercontent.com/37429336/96228812-a3bed300-0fc8-11eb-9210-92a6a076b430.png)

django.core.exceptions.ImproperlyConfigured: Set the SECRET_KEY environment variable

装了好多次都是在失败,真的挫败哦。

**Describe the bug** restful 批量导入关系报错 **To Reproduce** Steps to reproduce the behavior: 1. Go to '...' 2. Click on '....' 3. Scroll down to '....' 4. See error **Expected behavior**...

bug

问题类型:其它 **PaddleX版本** 您使用的PaddleX版本 **问题描述** paddlex具有优秀的部署能力,有着模型加密、模型量化、模型剪枝方面的能力优势。如果我们将paddlex的能力迁移到一些nlp场景中会增加paddlex更大的市场适应范围。 ======================== 请在这里描述您的问题

miss topic2index.pick

### Feature request ### 问题描述 当前在 `paddlenlp 3.0` 的微调过程中,使用的文本生成数据结构如下: ```json { "src": "类型#裙*颜色#蓝色*风格#清新*图案#蝴蝶结", "tgt": "裙身处采用立体蝴蝶结装饰辅以蓝色条带点缀,令衣身造型饱满富有层次的同时为其注入一丝甜美气息。将女孩清新娇俏的一面衬托而出。" } ``` 虽然此结构有效,但在实际应用中发现它未能达到最佳的生成效果。经过分析,智谱的数据结构似乎更适合文本生成模型。 ### 期望的数据结构 建议将数据结构改为类似智谱的数据结构,以提升模型的性能。智谱的数据结构的格式如下: ```json { "messages": [ { "role": "user", "content": "请描述一下裙子的细节:类型、颜色、风格和图案。"...

### Feature request 标题: 描述: 在使用 paddlenlp 进行训练和微调时,我发现 pretrain 和 sft 部分的代码实现存在一些问题,尤其是在数据集加载逻辑方面。当前实现包含了大量复杂的代码来处理数据集路径的检测和加载,这不仅影响了代码的可读性,也使得用户难以理解和维护。 当前实现问题: ```python if data_args.dataset_name_or_path is None: raise ValueError(f"Please specific dataset name or path (got {data_args.dataset_name_or_path})") elif ( os.path.exists(os.path.join(data_args.dataset_name_or_path,...

### Feature request 目前,paddlenlp 的大模型问答功能仅支持单轮问答。为了充分发挥大型语言模型的潜力,建议增强其对话功能,支持多轮对话、agent对话和工具对话。同时,当前的设计将命令行和业务组件混合在一起,建议明确命令行负责启动接口,代码负责实现业务组件,以提升代码的可维护性和扩展性。 当前实现: python 复制代码 from paddlenlp.transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2-0.5B") model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2-0.5B", dtype="float16") input_features = tokenizer("你好!请自我介绍一下。", return_tensors="pd") outputs = model.generate(**input_features, max_length=128) print(tokenizer.batch_decode(outputs[0])) 输出:...