LiveVideoCoreSDK
LiveVideoCoreSDK copied to clipboard
SetOwnerAndGroup Alex.shi:staff /Users/xxx/Library/Developer/Xcode/DerivedData/xxx-dxkxcpxctlwfnjcmlnfwczntwxqr/Build/Intermediates.noindex/ArchiveIntermediates/xxx/IntermediateBuildFilesPath/UninstalledProducts/iphoneos/libRtmpLivePushSDK.a (in target 'RtmpLivePushSDK' from project 'RtmpLivePushSDK') cd /Users/xxx/xxx/ios/RtmpLivePushSDK /usr/sbin/chown -RH Alex.shi:staff /Users/xxx/Library/Developer/Xcode/DerivedData/xxx-dxkxcpxctlwfnjcmlnfwczntwxqr/Build/Intermediates.noindex/ArchiveIntermediates/xxx/IntermediateBuildFilesPath/UninstalledProducts/iphoneos/libRtmpLivePushSDK.a
demo缺少LiveVideoCoreSDK.a文件吧,怎么集成一直报错
您好; 我们项目使用的是第三方的音视频; 第三方音视频提供了视频发送前的yuv420数据 ; libyuv::I420ToARGB((uint8_t *)videoFrame.yBuffer, videoFrame.yStride, (uint8_t *)videoFrame.uBuffer, videoFrame.uStride, (uint8_t *)videoFrame.vBuffer, videoFrame.vStride, bgra, bgra_stride, videoFrame.width, videoFrame.height); 我使用libyuv转成了argb CVPixelBufferRef bgraCVPixelBuffer = [bgraUtil rawBGRADataToCVPixelBuffer:bgra width:videoFrame.width height:videoFrame.height rotate:-M_PI_2]; 接着又转成了CVPixelBufferRef; 这个怎么使用GPUImage美颜; 或者您项目里那个美颜滤镜什么的没看懂啊;
发现的问题是连接还连着,隔几秒就往服务器推流,这样会造成视频一卡一卡的
我下载作者的demo,可以运行,但是我想集成到自己的项目中去,一直不成功,想找作者写的集成文档,也找不到,不知道大神的集成文档在哪里呢?如果没有的话,大神能不能写一份集成文档呢?
能否支持h265
@runner365 有没有打算支持h265编码?ios的手机支持265的硬编、解码吗?或者说目前架构能不能支持扩展植入h265编码库
@runner365 您好,此代码目前是不支持MacOS的吧?如果要把它改造成支持MacOS的话工程有多大?具体需要修改哪几个类?
错误输出:2017-01-21 11:14:49.868 LiveVideoCoreDemo[8138:888344] Focus POI not supported ERROR: WriteN, RTMP send error 35 (129 bytes) ERROR: WriteN, RTMP send error 35 (41 bytes) ERROR: WriteN, RTMP send error 9 (42...