Jimmy_L
Jimmy_L
同问,有人解决了这个问题吗
我大概知道是什么问题了,应该是内存不够或者溢出之类,可以将single_uav.launch文件里面的地图大小的value改小, ` ` ` 改小之后如果还会报错只能单独关掉single_uav.launch再重启,还不行只能继续改小了。 (目前我是这样做的,有更好方法欢迎指出)
感觉跟配置没多大关系,毕竟配置已经够好了,上面问题主要还是在ego-planner的map部分。因为地图大小固定住了,如果vins出现漂移的话,很容易报错,(毕竟一般高度设的数值不大,而vins漂移在z轴变化很大)建议先看看vins漂移的情况。
你可以用rostopic检查一下vins的imu_ropagate话题(不知道仿真有没有这个话题),看它xyz漂移情况如何。
请教一下onnx模型推理如何指定gpu?我按照`model = SenseVoiceSmall(model_dir, batch_size=10, quantize=False, disable_update=True, device_id=1)`设置device_id参数并查看`nvtop`,貌似设置无效。
@kaixindeyouxia 环境版本: vllm=0.5.3 transformers=4.44.0 我的建议是,如果想用glm4-9b-chat+lora微调+工具调用,可以在openai_api_server.py用lora_request传递lora微调模型,运行openai_api_server.py,这样就可以两者兼得。(我是用langchain那套方法测试工具调用的) 如果用命令行启动vllm serve服务,vllm不支持工具调用,但是它并发推理是真的快。还有个问题,我用命令行参数传递lora模型,貌似也不起作用,不知道为什么。 如果是llama-factory训练lora之后将lora和glm4-9b-chat进行merge,合并之后的模型运行openai_api_server.py调用工具,会有报错。 [(https://github.com/THUDM/GLM-4/issues/607)]
+1,之前按照 #7055 设置`use_unsloth_gc`、`enable_liger_kernel`,大约进度50%之后,还是会分配不均,2*80GB分别占用40GB和75GB
@eyurtsev Thank you for your answer, I saw something about agent from the example, but most of them did not talk about `create_retriever_tool` and the `create_react_agent` of `langgraph.prebuilt`, I still...
请教一下,这种带CoT的模型的微调数据,是不是也得用带有的数据去微调呀?
@KazyaGlaedwine Not yet, I've tried switching to a few versions of open3d, but the problem persists, and I now have to run some code in the cloud to get visual...