视频流通过Websockets

时间:2014-06-07 06:23:25

标签: android ios websocket video-streaming webrtc

我正在尝试构建可以从双方传输视频的移动应用程序(例如视频通话)。

我研究过webrtc,但那还没有为移动本机应用程序做好准备,无论如何,webrtc正在做的是允许浏览器直接捕获摄像头和音频而不需要插件等。但是在本机移动应用程序中捕获摄像头和音频不是&# 39; ta问题,基本上需要一个非常低的延迟和双传输层。在许多文章和地方,我读到了关于在websockets上使用webrtc。

所以我想我可以使用websockets来传输视频。它是正确的还是我错过了什么?

我知道webrtc直接客户端到客户端还有一个区别......而websocket将是客户端 - 服务器 - 客户端,无论如何都要避免它。这意味着延迟的条件是什么意思。

1 个答案:

答案 0 :(得分:1)

你错过了什么。

  • webRTC在移动设备上运行良好。在webrtc.org的参考代码(appRTCDEMO)中有iOS和Android的示例/白色客户端,以及多个应用程序。最后一个已经宣布出现了。

  • 从流中获取视频和音频流是其中的一部分 媒体API而不是webRTC API(getusermedia)。

  • webRTC实际上是p2p连接(RTCPeerConnection:传输和防火墙遍历)以及等式的媒体引擎(编码,打包,加密)以及您正在寻找的内容。

  • webSockets只是一种传输机制。它不处理您在应用程序级别实现的防火墙/ nat遍历,媒体处理和打包/分块。

  • 信令而言,webRTC没有指定/强加任何协议,看似常见的方法是建立信令服务器。应用程序通常使用Web套接字或XHR或其他方式连接到该服务器以执行原始握手/调用设置。许多应用程序通过使用socket.io等文件来抽象​​它。