微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

WebRTC 多流录制

如何解决WebRTC 多流录制

我目前正在尝试构建一个 WebRTC 流媒体架构,其中包含多个用户从同一“房间”中的摄像头流式传输内容,服务器端的 SFU/MCU 会“记录”传入的视频数据包,并将它们合并为一个图像并将其作为 RTMP 或 HLS 重新分发给查看者以增加可扩展性。

在对此进行一些初步研究后,Janus Gateway 似乎非常适合这一点,因为它在整个空间中被广泛采用 + 其(看似)可扩展的插件架构。因此,我目前正试图找出适合我的用例的推荐架构是什么样的。 我查看了以下插件

虽然 Janus 和流媒体插件似乎是在房间里的一组脚轮中获得广播方面的良好开端,但我正在尝试拼凑如何将不同的视频源组合成一个组合(水平拆分例如,如果有 2 个脚轮处于活动状态)并将最终结果重新传输为针对广播消耗优化的内容,例如 HLS。我可以想象的一些方法

  • 实现一个自定义 Janus 插件,该插件对网关本身的传入缓冲区进行转码
  • 通过 RTP 将传入的数据包转发到转码服务器
    • 在这种特定情况下,我不确定什么是最好的实现方式?视频帧是不同的轨道吗?我能否将它们全部流式传输到同一个端口并让 ffmpeg 或类似的东西为我处理合并?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。