ChatGLM-Tuning icon indicating copy to clipboard operation
ChatGLM-Tuning copied to clipboard

基于ChatGLM-6B + LoRA的Fintune方案

Results 185 ChatGLM-Tuning issues
Sort by recently updated
recently updated
newest added

按照[infer.ipynb](https://github.com/mymusise/ChatGLM-Tuning/blob/master/infer.ipynb) 打印出来input_ids为: 输入文本: input_ids:tensor([[ 57010, 20012, 23461, 20295, 24703, 20108, 28555, 21849, 20007, 20004, 33049, 20012, 150001, 150004]], device='cpu') 输出 out_text 为空,这是为啥,机器是V100。

See this in detail:https://github.com/27182812/ChatGLM-chinese-insturct

我这个训练速度正常吗,18w的数据,batch_size=64, 2轮,居然要32个小时,V100 80GGPU,合着一秒钟才5条文本?

能提供一个多轮对话的微调数据组织格式吗?实际业务当中的对话系统,肯定是很多轮次的,不是简单的一问一答形式数据组织格式。就像这种: { "instruction":"民主评议活动流程", "input":"", "output":"民主评议活动是指对党员进行定期的民主评议和考核,以促进党员的自我反省和提高,下面是一般的民主评议活动流程:\n-评议前准备工作\n(1)确定评议的时间和地点,并通知参评党员,做好评议材料的准备工作。\n(2)成立民主评议小组,由支部委员会组成,明确评议小组成员名单。\n(3)制定评议方案,明确评议的内容、方法和程序,以及相关的纪律规定。\n-开始评议\n(1)评议小组主持人进行评议活动的介绍,说明评议的目的和意义。\n(2)被评议党员发言,介绍自己的工作情况和思想状况。\n(3)其他党员依次对被评议党员进行评议发言,包括表扬和批评。\n(4)评议小组成员进行综合评价和点评,并对被评议党员提出意见和建议。\n-结束评议\n(1)评议小组主持人对评议活动进行总结,说明下一步工作安排。\n(2)评议小组成员对评议活动的进展和结果进行记录和整理。\n(3)被评议党员根据评议结果进行自我反省和总结,并制定下一步的工作计划。\n以上是一般的民主评议活动流程,需要根据实际情况进行具体的制定和安排。在开展民主评议活动时,应注意尊重被评议党员的权利,遵守评议的程序和规定,确保评议的公正、公开和公正。" }, { "instruction":"简述党员的选拔程序", "input":"", "output":"党员选拔程序一般包括以下几个步骤:\n-推荐:党员候选人需要由推荐人提名。推荐人可以是党组织、党员、群众组织或者个人。一般情况下,推荐人应该了解被推荐人的政治觉悟、工作能力和道德品质等情况。\n-考察:经过推荐后,党组织应该对被推荐人进行考察。这个考察过程一般包括调查、了解、核实和审查等环节,以了解被推荐人的各种情况。\n-确认:经过考察,如果被推荐人符合党员标准,党组织可以决定接受其为预备党员,并进行培养教育。预备党员应该在规定时间内完成预备期,达到预备期考核标准,经过党的支部讨论并经上级党组织批准后,可以成为正式党员。\n-公示:在党员选拔程序中,公示是一个重要环节。党组织应该在一定范围内公示被推荐人的基本情况,接受群众的监督和评议。公示期间,如果有群众对被推荐人有异议,党组织应该及时调查核实。\n-确认:如果经过公示和调查核实,被推荐人仍然符合党员标准,党组织可以决定接受其为党员,并向上级党组织报备。\n需要注意的是,党员选拔程序并非刻板而僵化的程序,党组织应该根据实际情况灵活运用,确保选拔过程公开、公正、公平,并且符合党员标准。" }

如题,微调结束后,应该如何实现多轮对话呢?历史的问答记录应该如何构造,放在哪儿呢? ![image](https://user-images.githubusercontent.com/42863413/231641520-b3aabc08-4d84-4716-b7cb-6b71bbda48ef.png) 我看官方THUDM/ChatGLM-B中cli_demo中时使用的model.stream_chat,请问model.generate应该如何构造呢 ![image](https://user-images.githubusercontent.com/42863413/231641868-be69f554-34c9-4df8-9f3d-e6be6a16742e.png)

你好,下载repo后,在modeling_chatglm.py中没有看到RLHF和训练RM及PPO训练RL的代码。在read_me中明明说是和chatGPT一样的技术,支持RLHF的,请问是怎么情况啊。

命令行输入curl -X POST "http://127.0.0.1:8000" -H 'Content-Type: application/json' -d '{"prompt": "你是谁", "history": []}' 可以成功。 但是浏览器输入http://127.0.0.1:8000,无法访问?这是为什么

看到在infer.ipynb中有如下两处代码 1、model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True, load_in_8bit=True, device_map=' 2、model = PeftModel.from_pretrained(model, "./output/") 请问,第一次调用是加载了原始的model,第二次调用时是加载了微调后的model的什么参数?第二次调用是将微调后的参数更新了原始的model吗?

在没有全部训练完所有的step情况下,我想用中间的ckpt初步看下效果,例如: model = PeftModel.from_pretrained(model, "./output/checkpoint-1200/") 但是报错如下: ValueError: Can't find 'adapter_config.json' at './output/checkpoint-1200/' 所以在没有训练完所有step生成adapter_config.json之前,如何用中间ckpt看下效果?

torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 128.00 MiB (GPU 0; 14.61 GiB total capacity; 13.73 GiB already allocated; 83.12 MiB free; 13.79 GiB reserved in total by PyTorch)...