WebRTC 的音视频开发过程是怎样的?
目前最简单的WebRTC音视频应用开发,应该是基于浏览器内核提供的JS API直接进行Web应用开发,相关的WebRTC JS API的Demo可以参考:WebRTC samples
这种开发基本的音视频应用问题不大,但也存在不少限制,如无法直接接入RTSP流的网络摄像机,无法本地进行多路画面的合成和推流等特殊定制功能。
基于开源的WebRTC,则可以基于WebRTC C++ Native API进行开发,这样可以进行很多定制功能的开发(例如,启用GPU硬件加速的视频编解码、多路画面拼接合成后再使用WebRTC推流、使用RTSP流作为WebRTC推流的视频源,通过WebRTC推流共享视频文件,共享指定应用窗口,本地视频录制,使用
shanewfx
0