ms-media-foundation

    0热度

    1回答

    我在window8上构建了一个多媒体应用程序,我需要访问系统默认的摄像头设备(比如有多个连接到电脑的网络摄像头,我需要选择系统默认的摄像头设备)。我正在使用媒体基础框架,无法找到这样的API,告诉我哪个是默认相机。看来它只能返回连接到计算机的设备列表(使用MFEnumDeviceSources(pAttributes,& ppDevices,& count)函数)。在这里列出的所有捕获设备属性中:

    4热度

    1回答

    我想获取我的网络摄像头支持的所有FPS值的列表。 在How to Set the Video Capture Frame Rate msdn文章它说,我可以查询系统的最大和最小支持特定相机的FPS。 它还说: 设备可能在此范围内支持其他的帧速率。 而且在MF_MT_FRAME_RATE_RANGE_MIN它说: 该设备不保证支持此范围内每递增。 所以,它听起来就像是没有办法通过相机在媒体基金会,只

    0热度

    1回答

    我正在学习在Windows Media Foundation中使用H.264编码器。 我目前拥有的是YUV420p格式的媒体样本,所以这是包含YYYYYYYYUUVV数据的缓冲区。 由于H.264编码器MFT需要IMFSample形式的输入,所以我不确定如何将缓冲区中的数据转换为IMFSample。 可能我就是这样做: IMFMediaBuffer *pBuffer = NULL; MFCrea

    1热度

    1回答

    我有一个MF拓扑捕捉视频和音频,并将其编码成H264,然后将其写入MPEG4接收器。但是,问题在于我的H264编码器(Intel QuickSync H264编码器)未在其输出类型中为MF_MT_MPEG_SEQUENCE_HEADER定义值。因此,当我把我的MPEG4片的视频媒体类型,没有顺序标题定义和接收不能正确完成,作为MPEG4水槽文档中提到: https://msdn.microsoft

    0热度

    1回答

    我用2种方式实现了一个编码器。基于该SDK代码转换器实施例,它使用基于IMFSourceReader和IMFSinkWriter,其中Sinkwriter提供样品到Sourcewriter进行转码 我测试这两种实施方式的拓扑结构和转码简档 2) 1)在Windows 8.1上使用Nvidia(Quadro K2200)和Intel GPU(P4600/P4700) 但奇怪的是,只有拓扑实现使用GP

    1热度

    1回答

    我正在开发基于媒体基础的h264播放器,以播放来自我自己的自定义媒体源的h264视频和HE-AAC音频。 我的原型不播放视频,只播放音频。 如何解决这个问题? 这是问题所在。我打开我的网址。 该框架创建并初始化我的媒体源,该媒体源依次创建并初始化我的2个音频和视频流。 然后它要求视频样本,直到文件结束。 日志充满CMFTransformDetours :: ProcessOutput失败hr =

    1热度

    2回答

    从https://msdn.microsoft.com/en-us/library/windows/desktop/dd797815%28v=vs.85%29.aspx 在限制的,你看,“对于DXVA加速最大限度地保证分辨率为1920×1088个像素;在更高的分辨率,解码完成使用DXVA,如果它是由底层硬件支持的话,否则解码是用软件完成的。“ 有没有办法来检测解码是在软件中完成? 当尝试解码4K

    1热度

    1回答

    我试图将一个连续的缓冲区分成3个字节的通道(RGB)。这是我的工作流程acutal得到缓冲充满图像: 设置一个源读取(MFVideoFormat_RGB32) 接收视频格式信息 阅读第一图像,并转换为连续的缓冲区... 除此之外,这里是代码: HRESULT hr = S_OK; IMFAttributes *attributes = NULL; SafeRelease(&_s

    5热度

    2回答

    目标是实现用于视频处理和同步到外部应用程序的自定义MFT。细节并不重要。 我想要实现的第一步是使用DXVA视频处理或DXVA-HD启动并运行MFT。我无法这样做。 以下是我所做的: 我开始构建一个包含源输入节点(我的摄像头),MFT(MFT_Grayscale示例)和EVR的拓扑。 我把它包含在一个小应用程序中。拓扑工作,我可以看到来自相机的单色流。 现在我想更改MF_Grayscale示例的代码

    1热度

    1回答

    我使用媒体基础来捕获活着的网络摄像头视频,是否有可能获得以运行时间字节流格式捕获的帧,并将它们写入一个位流在每个时间周期之后的文本文件中? 我不知道我可以在字节格式的流(没有容器),我也不能在运行时做到这一点?