7
我正在寻找一种有效的方式来做到以下几点:多个视频源合并成一个
使用多个来源的视频(的长度大致相同),我需要生成一个由所有的输出视频每个原始资源都在自己的区域中运行(例如几个不同尺寸的一堆PIP)。所以,最终的结果是所有的原件都并排运行,每个都在自己的区域/箱子中。
源和输出需要为flv
,我使用的平台是Windows(在Windows 7 64位上开发,部署到Windows Server 2008)。
我看过avisynth,但不幸的是,它不能处理flv
和我尝试工作的插件和flv分离器。
我目前的进程以下列方式使用ffmpeg:
- 使用的ffmpeg生成每视频每秒25点PNG的,调整原来的需要。
- 使用
System.Drawing
命名空间将每组帧组合为一个新图像,从静态背景开始,然后将每个帧加载到Image
并绘制到背景Graphics
对象 - 这给了我合并的帧。 - 使用ffmpeg将生成的图像组合到视频中。
这一切都是非常密集的IO(这是我目前的处理瓶颈),我觉得必须有一个更有效的方式来达到我的目标。我没有太多的视频处理经验,也不知道有哪些选择。
任何人都可以提出一个更有效的方式来处理这些?
感谢您的答案 - 你有一个图片,在图片的命令行的例子吗? – Oded
伟大的第二个例子 - 我将如何指定超过2个来源?或者我需要用不同的叠加多次调用它? – Oded
它看起来像'overlay'不会调整原始大小 - 我想我需要使用'scale'来达到这个目的? – Oded