问题描述
- Android端音视频采集到推流这一步,服务器端不需要
-
各位大牛,小弟现在因为项目需求,需要做一个android端采集音视频并实时对音视频编解码(AAC/H.264),
然后封包RTMP推送至流媒体服务器,服务器端再实时将可播放的流发送至其他android客户端以支持RTMP协议的流媒体播放。
在网上找了很多文章都大同小异,而且感觉不是很适合。感觉视频流用MediaRecorder进行H264硬编码 + LocalSocket的方案可行,但要是直接可播放的流貌似应该要先发送SPS和PPS信息,包括打上时间戳等;
音频采用AudioRecorder采集,但是硬编码AAC不可行(大部分Android不支持),软编码的话具体不知道怎么实现、包括对裸流的处理,具体需要怎样让裸流变成可播放流。
还有推流的步骤也很关键,不知道音视频流是应该单独推还是需要合成一起去推,包含音视频流同步的问题。
这个包juv-client-client.jar支持RTMP协议推流,但是结合上面的步骤具体怎么用也不清楚,或者应该用其它支持RTMP的库?总之,现在只有思路、以及部分实现的碎片,感觉整合成一个完整的直播方案并实现还有很大的难度,因为小弟之前从未接触过这方面,音视频的技术积累几乎为零,所以短时间内肯定弄不出来。还望各位大牛不吝赐教,万分感谢!
解决方案
H.264 协议流媒体编码的实现,如果没有硬件支持对系统的要求太高,大部分 Android 手机支持可能存在问题。
H.264 本身就是音频与视频同步的,打包在一起就不用太多的考虑;但如果分开,则需要考虑传输过程中的同步问题。
多媒体编码,也是一个难点。
解决方案二:
楼主功能实现了吗?我们现在也要做这个呢,制作视频直播发布,在电脑上播放,如果楼主已经实现的话,可否发一份demo,拜谢754442658@qq.com
解决方案三:
同求 。好人一生平安。934219093@qq.com
解决方案四:
大神,可否发一份demo,拜谢 545352377@qq.com
解决方案五:
大神同求一个demo,万分感谢,876168893@qq.com
时间: 2024-12-26 22:53:33