LP_Cong
LP_Cong
可以进到docker里看看log,看看是报什么错
我知道了……因为判题机是运行在沙盒里的,沙盒为了安全有很多限制,不允许调用一些系统函数,numpy用了很多其他的一些系统函数,所以报错了。。。。
自己改jugder,去掉沙盒,然后在judger里装numpy就好了。
> 清问在哪里去掉沙盒? 在judger里装numpy就还是之前直接在requirements.txt加上numpy就行了吧。 这个得自己改源码,自己写编译和运行。在我很久之前的代码,是没有用沙盒的……有点难找了
还有自动保存代码
理论可行
https://github.com/NVIDIA/TensorRT-LLM/issues/865 can reproduce the hang. can solve by https://github.com/triton-inference-server/tensorrtllm_backend/issues/149#issuecomment-1839589431