2017-04-22 211 views
1

我需要在Ubuntu 16.04机器上创建虚拟网络摄像头和虚拟麦克风,以通过我的Web浏览器使用WebRTC在Web应用程序中使用。创建虚拟麦克风Ubuntu 16.04并从RTSP IP摄像头流入音频

我需要从IP摄像头(RTSP流)向这两个虚拟设备提供视频和音频。 直接在VLC中播放RTSP流可以很好地处理视频和音频。

为此,我创建了一个带有video4linux2的/ dev/video1。 我可以将IP摄像头送到/ dev/video1。

的ffmpeg -i的rtsp:// IP_ADDRESS:554 /流/渠道/ 101/-f用v412 的/ dev /视频1

如果我看在VLC播放器,我可以选择的/ dev/video1作为视频设备,但我只有“hw:0,0”作为音频设备,这是我的内置麦克风。

如何正确地将这种RTSP流馈送到虚拟摄像头和虚拟麦克风?

回答

1

您需要某种环回音频驱动程序。如果您想在Alsa级别执行此操作,则可能会丢失snd-aloop模块。

如果您的预期目的地支持Pulseaudio,您可以添加一个空接收器并使用其监听源来记录它。

pactl load-module module-null-sink sink_name=video1 

监视器源被命名为video1.source

https://wiki.archlinux.org/index.php/PulseAudio/Examples

然后,你需要从FFmpeg的添加额外的输出。这可能很简单,只需在-f pulse "video1"之后添加一些内容即可。