wang.gang
wang.gang
**docker 方式部署,推流和多人通话持续约几小时后srs容器崩溃** 1. SRS Version(版本): `v4.0` 1. SRS Log(日志): ``` [2022-08-12 17:51:17.024][Trace][1][s608m511] dvr stream wksscadmin to file ./objs/nginx/html/record/728661/wksscadmin/2022/08/12/17:51:17.mp4 [2022-08-12 17:51:17.024][Trace][1][s608m511] ignore disabled exec for vhost=__defaultVhost__ [2022-08-12 17:51:17.294][Trace][1][37idt5gu] RTC: Need PLI...
通过源码编译方式执行命令:cd ~/git/srs/trunk/3rdparty/signaling && make && ./objs/signaling 当关闭远程连接时程序会推出导致无法访问。
### What would your feature do? 1:调用http://127.0.0.1:5003/manual-translate接口并等待返回后再次调用 http://127.0.0.1:5003/post-manual-result 这个流程调用正常 2:现发现如果在调用manual-translate接口后,未调用post-manual-result,再次调用manual-translate无返回结果,真个程序会无法使用,必须重启程序后才能恢复正常。 3:我请教的问题是 3.1:manual-translate和post-manual-result 接口必须要在一个流程中调用完成才能进行下一个调用流程么 3.2:我如何可以并发调用多次manual-translate后依然可以调用post-manual-result 
1:我执行命令 lmdeploy serve api_server /root/autodl-tmp/InternVL-Chat-V1-5 --server-port 8080 `` (internvl-deploy) root@autodl-container-b2b911ba00-2d4424e7:~# lmdeploy serve api_server /root/autodl-tmp/InternVL-Chat-V1-5 --server-port 8080 FlashAttention is not installed. Special tokens have been added in the vocabulary, make sure...
1.环境配置 Linux中部署,RTX 2080Ti(22GB) 22GB * 1,接入的是ollama,大模型是llama3:8b和nomic-embed-text:latest 2.问题 我只导入了一张表,然后在输入框问问题,但是响应速度很慢。请问是什么问题?如何改进?