夏楚

Results 330 comments of 夏楚

Indeed, this can only count the load of one thread. In the case of multiple threads, this statistic should be turned off. >确实 这个只能统计一个线程的负载情况 在多个线程的情况下 应该关闭这个统计 `TRANS_BY_GITHUB_AI_ASSISTANT`

Looks like an exception is being thrown in the destructor. >看起来是在析构中抛了个异常 `TRANS_BY_GITHUB_AI_ASSISTANT`

First update the zlm. >先更新zlm吧 `TRANS_BY_GITHUB_AI_ASSISTANT`

感谢您的pr 要不这些也做成配置化? ![image](https://github.com/ZLMediaKit/ZLMediaKit/assets/11495632/da1684db-abeb-46b1-9716-8a564d6cebb6)

你修改的这两个参数 对重传效果的调整有限 那两个参数基本不影响抗丢包效果

> > 你修改的这两个参数 对重传效果的调整有限 > > 那两个参数基本不影响抗丢包效果 > > 这两个在我们项目上对延时很有用,默认的配置有时会出现几秒的延时,但是将第一个参数设置成低于1s的话,延时就不会超过1s了。 那奇怪啊 这两个参数是zlm发送rtp后保留的缓存长度 在接收端反馈丢包后 再重发给对方, 你缩减后,再对方反馈丢包了就无数据可发 对方就会接收丢包

按道理 最大重传缓存时长 应该是接收端控制的 发送端应该设置的比较大才合理

@gongluck 要不再在config.ini文件中添加下这些配置以及相关注释?

感谢大佬 加个微信? xiachuziyue

Currently, the zlm's webrtc support for multi-card mode is not good, and only enables webrtc over tcp mode. Configuration file setting: set rtc.port to 0, rtc.tcpPort to 8000, force tcp...