HongCheng

Results 62 comments of HongCheng

> yes, i found the same problems. Meanwhile, i think the shape of `self.relative_x` should be `(groups,self.rel_size, self.kernel_size[1])` instead of `(self.rel_size, self.kernel_size[1])` . In fact, when i fixed this problems,...

# Github link [openmmlab2-hongNo1-Assignment](https://github.com/chg0901/openmmlab2-hong/tree/main/No1-Assignment) # **测试结果可视化** 详见[测试数据和结果文件夹 MyEar目录](https://github.com/chg0901/openmmlab2-hong/tree/main/No1-Assignment/MyEar)和[README.md](https://github.com/chg0901/openmmlab2-hong/blob/main/No1-Assignment/README.md) ## RTMDet-tiny best epoch: 196/200 1. [Json sclar](https://github.com/chg0901/openmmlab2-hong/blob/main/No1-Assignment/mmdetection/work_dirs/rtmdet_tiny_Ear/20230604_153610_ear_train_200_best196_.808/vis_data/20230604_153610.json) 2. [Config file](https://github.com/chg0901/openmmlab2-hong/blob/main/No1-Assignment/mmdetection/work_dirs/rtmdet_tiny_Ear/20230604_153610_ear_train_200_best196_.808/vis_data/config.py) 3. [Training and Validation Log](https://github.com/chg0901/openmmlab2-hong/blob/main/No1-Assignment/mmdetection/work_dirs/rtmdet_tiny_Ear/20230604_153610_ear_train_200_best196_.808/20230604_153610.log) ``` coco/bbox_mAP: 0.8080 coco/bbox_mAP_50: 0.9700 coco/bbox_mAP_75:...

## Github Link https://github.com/chg0901/openmmlab2-hong/tree/main/Assignment4 ### 作业结果 **1. Config** [`./mmsegmentation/pspnet-Watermelon87_Semantic_Seg_Mask_20230616.py`](https://github.com/chg0901/openmmlab2-hong/tree/main/Assignment4/mmsegmentation/pspnet-Watermelon87_Semantic_Seg_Mask_20230616.py) **2. Evaluation** - aAcc: 94.2700 - mIoU: 77.2600 - mAcc: 86.7700 **3. Training logs** [./work_dirs/Watermelon87_Semantic_Seg_Mask/20230616_114954/20230616_114954.log](https://github.com/chg0901/openmmlab2-hong/tree/main/Assignment4/mmsegmentation/work_dirs/Watermelon87_Semantic_Seg_Mask/20230616_114954/20230616_114954.log) **4. Test logs** Outputs is the...

作业链接:https://github.com/chg0901/openmmlab2-hong/tree/main/Assignment3 采用了【同济子豪兄的 [十类饮料目标检测数据集Drink_284](https://link.zhihu.com/?target=https%3A//github.com/TommyZihao/Train_Custom_Dataset/tree/main/%25E7%259B%25AE%25E6%25A0%2587%25E6%25A3%2580%25E6%25B5%258B/%25E7%259B%25AE%25E6%25A0%2587%25E6%25A3%2580%25E6%25B5%258B%25E6%2595%25B0%25E6%258D%25AE%25E9%259B%2586)】中的[MS COCO标注格式(已划分训练集和测试集)](https://link.zhihu.com/?target=https%3A//zihao-download.obs.cn-east-3.myhuaweicloud.com/yolov8/datasets/Drink_284_Detection_Dataset/Drink_284_Detection_coco.zip) 其他详情及可视化,请查看[readme.md](https://github.com/chg0901/openmmlab2-hong/blob/main/Assignment3/readme.md)

## Github 作业目录 [**Assignment2**](https://github.com/chg0901/openmmlab2-hong/tree/main/Assignment2) https://github.com/chg0901/openmmlab2-hong/tree/main/Assignment2 ## 1.划分训练集和验证集 **文件链接** [**dataset_process.py**](https://github.com/chg0901/openmmlab2-hong/blob/main/Assignment2/projects/fruits/dataset_process.py) ## 2/3/4. ### **Config 中对数据集的配置** **训练配置[projects/fruits/resnet50_fintuneM2.py](https://github.com/chg0901/openmmlab2-hong/blob/main/Assignment2/projects/fruits/resnet50_fintuneM2.py) 继承自[projects/fruits/resnet50_fintune.py](https://github.com/chg0901/openmmlab2-hong/blob/main/Assignment2/projects/fruits/resnet50_fintune.py)** **完整Config配置** 训练时生成Config脚本 ([projects/fruits/exp3_resnet50/resnet50_fintuneM2.py](https://github.com/chg0901/openmmlab2-hong/blob/main/Assignment2/projects/fruits/exp3_resnet50/resnet50_fintuneM2.py)) ### 测试结果 - **accuracy/top1: 91.5138** - **accuracy/top5: 98.3945** [**测试日志log** 20230608_171139.log](https://github.com/chg0901/openmmlab2-hong/blob/main/Assignment2/projects/fruits/work_dirs/resnet50_fintuneM2/20230608_171139/20230608_171139.log) ```...

Thanks for your issue and welcome to PR~

重新开一下吧, 我等着在emollm3.0上训练下爹系男友试试,爹系男友V2.0训了3个epoch,其实有点多

> 您好,您们的工作分享对于LLM初学者来说有着很大的启发!我也是其中之一。 > > 在浏览完所有自述文件后,我观察到您们有多个数据集,特别是包含了大量角色扮演的数据集。我想请教下您们对于多个角色,是通过微调不同的角色模型,还是通过分阶段微调来对一个模型不断增强?如果是分阶段微调的话,具体是怎么做的呢? > > 因为我之前尝试实战了一个医疗大模型的微调,我发现医疗下仍然有很多细分场景,比如智能问诊,医药问答,以及您们工作中所提到的心理健康等等。我在思考这些细分场景是全部塞入一个大数据集内统一微调,还是分阶段微调合适呢? > > 这个问题相对来说偏于个人,如果能收到您们的答复,我将不胜感激! 最近有个基于internlm做的项目, 它采用的方法就是多轮次微调训练的方法, 但是是否真正有效,还是要取决于数据集,微调方法和参数的,

1. 相同数据,微调多次,里面有初始化的问题 2. 不同数据,微调多次,类似增强学习的程度 3. 结合以上两种

> > 可以看一下仓dataset文件夹 > > 你好,我是查阅了datasets仓的readme,不过那里只是介绍了下 aiwei 用到了某个角色数据集,但其具体用到了哪些通用文件以及角色文件的详细列表是没有的。尤其是爹系心理咨询师模型的数据集更是没有提及。譬如: 艾薇模型数据集: > > 1. aiwei角色数据集 > 2. xxxx通用数据集 > 等等 > > 如果你们方便的话,可以放出来相关模型及其数据及列表吗? > > 感谢。我是打算后续在[个人公众号](https://mp.weixin.qq.com/s?__biz=MzkyNDY0MTU5MA==&mid=2247484611&idx=1&sn=48840cdc31fc82e13fca9442c4dcf08c&chksm=c1d3f49af6a47d8c4f02dd3e9bdca496859210f11e07be987518484e053db3b22e72d3d5127a&token=876543718&lang=zh_CN#rd)介绍这些相关的内容,因此想要更详细一点的描述。也算是完善下模型的文档 =v= #### 十分感谢你的问题和联系我们 目前爹系男友的数据集没有开源, 但是数据的生成方式和我们Repo开源的教程是一致的 [Update][EmoLLM]【爹系男友4.0】-心理健康大模型项目介绍...