steven-RD

Results 5 comments of steven-RD

使用场景是这样的:一路视频输入是读取本地文件,一路音频输入,这路音频是接收websocket通信传递过来的PCM数据包,音频的数据包并不一定是连续的中间可能会没有数据,这个服务要一直运行着随时接收语音包,然后和视频一起做编码,合成既有视频又有音频的流,输出一个实时流。这种场景要怎么实现呢?

根据你的提示创建了一个bmf 模块,在这个模块中实现接收websoceket传递过来的PCM数据包,如何将这些PCM数据包包装成bmf AudioFrame输出能给具体说说吗?(比如调用哪些接口去实现) @HuHeng

data = [] for m in mixed_array: data.append(mp.from_numpy(m)) Log.log(LogLevel.DEBUG, "..........data: ", data.__class__) mixed_frame = AudioFrame(data, sdk.kLAYOUT_STEREO) 这个是bmf/demo/broadcaster 中的audiomix.py 中的代码片段,请问下这里的data一帧的音频数据还是多帧的音频数据?AudioFrame()返回的mixed_frame是一帧AudioFrame的音频数据还是多帧的?

现在接收到的流式音频数据为message,将它转化为numpy数组:pcm_array = np.frombuffer(message, dtype=np.int16) 可以如何实现送给AudioFrame()去处理呢?使用的AudioFrame(const TensorList &data, uint64_t layout, bool planer = true)这个接口。

我下载注册了飞书,选择的企业场景需要有企业邀请码,方便提供下吗?还是个人场景?如何加入飞书群