我想从我的摄像头连接到我的无头Ubuntu服务器(运行Maverick 10.10)流视频和音频。我希望能够以WebM格式(VP8视频+ OGG)进行流式传输。带宽有限,所以流必须低于1Mbps。命令行流媒体摄像头与WebM格式的Ubuntu服务器音频
我试过使用FFmpeg。我能够记录来自摄像头的WebM视频下列要求:
ffmpeg -s 640x360 \
-f video4linux2 -i /dev/video0 -isync -vcodec libvpx -vb 768000 -r 10 -vsync 1 \
-f alsa -ac 1 -i hw:1,0 -acodec libvorbis -ab 32000 -ar 11025 \
-f webm /var/www/telemed/test.webm
然而,尽管与垂直同步和异步选择各种方式进行实验,我可以不同步的音频,或尼山风格的快进视频与匹配的快速音频。我也一直无法得到这与ffserver实际工作(通过替换test.webm路径和文件名与相关的饲料文件名)。
目标是在紧凑的带宽中使用只有开源组件才能获得可在现代浏览器中查看的实时音频+视频馈送。 (没有MP3格式的合法谷壳)
因此我的问题是: 你会如何从网络摄像头通过Linux与同步音频流webm?你使用什么软件?
您是否成功通过FFmpeg通过网络摄像头编码webm中的同步音频?如果是这样,你发出了什么命令?
FFmpeg + FFserver是否值得坚持,还是还有其他更适合的命令行工具(例如VLC,它似乎不太适合编码)?
是否像Gstreamer + flumotion可从命令行配置?如果是这样,我在哪里可以找到命令行文档,因为flumotion doc在命令行细节上相当轻松?
在此先感谢!