喜发的结果,合并摄像头流和视频文件,并通过RTP或RTSP
我们正处在一个Java项目的工作,我们有学生:
- 捕获从视频流一个摄像头
- 合并这个流与一个视频文件(我们取每个像素的颜色的平均值,所以这两个流是叠加的)
- 使用RTP或RTSP在网络上传输合并结果(理论上,一世t将被2个Android平板电脑接收)。
有一点非常重要,那就是所有这些操作都应该是实时(或差不多)。应在网络摄像头捕捉视频的同时接收RTP流。
为了做到这一点,我们使用Java媒体框架(JMF)API。第一个和第二个点已经成功实施:来自网络摄像头的每秒秒数,来自视频文件的30 BufferedImage合并到网络摄像头的BufferedImage。结果显示在一个经典的JFrame上(我们只使用Swing和JMF),它的效果非常好。
我们还是要做第三点。通过RTP发送视频流不是很难。 但是,由于点1和点2,我们没有视频流,而是一系列BufferedImages。我们知道如何从这些BufferedImage获取视频文件。但它只是录制在硬盘上的视频文件,无法实时在网络上发送。那么我们如何才能从这些可以直接通过RTP发送的BufferedImage流动即时?
在此先感谢您的帮助。