dxva

    2热度

    1回答

    我有一个应用程序,它使用x264 x264_encoder_encode实时发送从编码中生成的原始h264 NALU。我通过普通的TCP获取它们,所以我不会丢失任何帧。 我需要能够在Windows(DXVA2)中使用硬件加速在客户端解码这样的流。我一直在努力寻找一种方法来使用FFMPEG来实现它。试试Media Foundation或DirectShow可能会更容易,但他们不会采用原始​​的H26

    6热度

    1回答

    我想在我的Direct3D应用程序中的多个线程和对象之间共享一个Direct3D设备。我遇到了Direct3D设备管理器,它看起来像我想要什么,虽然我没有做任何的视频处理和视频加速: http://msdn.microsoft.com/en-us/library/windows/desktop/aa965267(v=vs.85).aspx 在我的代码,我做了以下内容: // Create the

    1热度

    2回答

    从https://msdn.microsoft.com/en-us/library/windows/desktop/dd797815%28v=vs.85%29.aspx 在限制的,你看,“对于DXVA加速最大限度地保证分辨率为1920×1088个像素;在更高的分辨率,解码完成使用DXVA,如果它是由底层硬件支持的话,否则解码是用软件完成的。“ 有没有办法来检测解码是在软件中完成? 当尝试解码4K

    5热度

    1回答

    我负责修改使用DirectShow进行视频渲染的应用程序。旧的应用程序工作正常,但它开始显示年龄。 由于我有一个游戏背景,我想我应该这样做。在使用不同的技术制作了一堆原型之后,我很确定我可以从视频到纹理的渲染,并使用DirectX来满足他所有的客户请求。 不过,我现在在我要挑一个技术一起去,我不能更失去了点... 的DirectShow 媒体基金会 媒体会话(<的Windows 8) 媒体引擎(>

    5热度

    2回答

    目标是实现用于视频处理和同步到外部应用程序的自定义MFT。细节并不重要。 我想要实现的第一步是使用DXVA视频处理或DXVA-HD启动并运行MFT。我无法这样做。 以下是我所做的: 我开始构建一个包含源输入节点(我的摄像头),MFT(MFT_Grayscale示例)和EVR的拓扑。 我把它包含在一个小应用程序中。拓扑工作,我可以看到来自相机的单色流。 现在我想更改MF_Grayscale示例的代码

    1热度

    1回答

    默认情况下,LAV解码器,但我想用硬件加速ffdshow解码。 我看到在文件中这些行ClassId.cs public static readonly Guid FFDShowVideo = new Guid("04FE9017-F873-410e-871E-AB91661A4EF7"); public static readonly Guid FFDShowVideoRaw = new Gui

    4热度

    2回答

    我有一个在桌面模式下在Windows 8上运行的专有媒体播放器。 Runtime DirectX版本为11,但本机图形驱动程序支持DirectX 9. 在某些具有完全相同设置的计算机上,我看到实际交换链的后台缓冲区计数为2,性能很好,而其他一些后台缓冲区计数是7,并且丢弃了一些帧。 我没有该播放器的源代码,并想知道在运行时确定不同的后台缓冲区计数的原因是什么。 有人可以解释为什么这样的backbu