liuxinglong

Results 22 comments of liuxinglong

> 可以采用[GFPGAN](https://github.com/TencentARC/GFPGAN)来提高生成视频的分辨率。 我们尝试过将生成的视频贴回到原图像上,但会存在边缘处无法对齐现象,目前还在尝试改善这一问题,后续有进展会继续更新代码 感谢回复,请问对问题2,有什么现在能做的折中办法吗?

@danleifeng paddleRec推荐的paddle Serving有2年没更新了,执行paddle_serving_client.convert也是要求paddle2.3版本,请问咱们有什么其他的serving部署方式推荐吗?

2024-03-28 14:16:40,625 - INFO - epoch: 9 done, auc_ctr: 0.528628,auc_ctcvr: 0.494269, epoch time: 56.45 s 请问有谁解决了吗?直接跑demo的全量数据运行config_bigdata.yaml 得到的auc只有0.52 @wangzhen38 @frankwhzhang

@Muennighoff Thank you very much for your reply. I tried code like below `model = SentenceTransformerSpecb( "bigscience/sgpt-bloom-7b1-msmarco", cache_folder="/mnt/storage/agtech/modelCache", ) accelerator = Accelerator() model = accelerator.prepare(model)` when run `model= accelerator.prepare(model)` I...

+1 同问不知道题主现在进行到什么状态了 现在看到的都是两种: 1.对文档拆段,生成embedding索引库,对查询生成embedding检索索引库,拿着检索出来topn调用chatGPT等润色生成答案 2. lora、ptuning等对模型进行finetuning 方案一受制于embedding相关性较差,属于玩具,没法在工业化应用 方案二不确定效果怎么样 还没见过谁实现题主说的 1)用GLM先进行pretrain,得到领域GLM,然后用指令微调训练集对领域GLM进行微调吗?这样等于ChatGLM的工作得重做了 这种形式的。

已经有V4模型了?请问模型地址在哪?

@Tungsong 能提供下你的fine-tuning代码吗? 新人不确定在这份代码上需要修改写什么? https://github.com/27182812/ChatGLM-LLaMA-chinese-insturct