-
使用带有C#的MediaTranscoder将PCM音频转码为MP3
我正在尝试对从WebRTC呼叫中保存的PCM格式的音频文件进行转码。 WebRTC报告的音频流格式为16位深度,1个 -
提供少量输入样本后,英特尔图形硬件H264 MFT ProcessInput调用失败,在Nvidia硬件MFT上也能正常工作
我正在使用DesktopDuplication API捕获桌面,并将示例从RGBA转换为GPU中的NV12,并将其提供给MediaFoundation硬件H2 -
使用IMFSinkWriter更改标题,作者等元数据
我正在使用<a href="https://docs.microsoft.com/en-us/windows/win32/medfound/tutorial--using-the-sink-writer-to-encode-video" rel="nof -
如何在Media Foundation中确定特定MJPEG子类型的色度子采样?
在Media Foundation中读取可用的媒体类型时,是否有任何方法可以确定用于特定MJPG格式的色度二次采样(即 -
媒体基金会:WavSink比实时消耗率更快地处理音频-可以实时限制假脱机吗?
作为标题,我以Media Foundation WavSink示例为例,该示例将音频流解码为PCM并转储为文件。 我的应用 -
未定义时间范围后,媒体基础的多个视频播放会导致内存泄漏和崩溃
因此,我们使用由c ++媒体基础代码组成的堆栈来播放视频文件。一个重要的要求是能够以不断重复的顺 -
媒体基础:英特尔硬件MFT的SPS / PPS问题
我使用Intel硬件MFT将NV12帧编码为H264流,并使用Live555通过LAN上的RTP通过流传输编码的帧,并在另一端进行 -
如何获得d3d_aware的IMFTransform(将Windows Duplication API的输入编码为H264)?
下一个代码应提供inputInfo和outputInfo配置,以获取IMFTransform, 并且此IMFTransform用于将ID3D11Texture2D(格式为 -
使用DirectX11像素着色器将颜色从DXGI_FORMAT_B8G8R8A8_UNORM转换为GPU中的NV12
我正在编写一个代码,以使用桌面复制捕获桌面,并使用英特尔hardwareMFT将其编码为h264。编码器仅接受NV -
在MediaFoundation硬件MFT中设置更大的GOP大小 认证的硬件编码器
我正在尝试直播通过桌面复制API捕获的桌面。 H264编码可以正常工作,除了以下事实之外:桌面复制API仅 -
使用Microsoft Media Foundation和桌面复制API创建视频
我正在使用<strong> DDA </strong>捕获<strong>桌面图像帧</strong>,并将其发送到服务器,服务器应使用这些帧 -
英特尔H264硬件MFT不遵守GOP设置
<strong>问题陈述:</strong> Intel硬件MFT不遵守GOP设置,导致实时应用程序占用更多带宽。相同的代 -
CoInitializeSecurity()与Media Foundation编码器之间的怪异连接
这个问题与<a href="https://stackoverflow.com/questions/58664404/media-foundation-codec-error-while-trying-h265-succeeds-in-h-264">th -
是否可以从IMFSourceReader或IMFMediaSource对象获取MF_SOURCE_READER_ASYNC_CALLBACK的值?
我使用MediaFoundation API从摄像机获取样本,并且遇到了这样的问题。 通过创建<a href="https://docs.microsoft -
尝试在Media Foundation编码中使用MFT
该想法是在通过Media Foundation对视频进行转码时使用Media Foundation转换,例如<a href="https://docs.microsoft.com/en- -
MediaFoundation SinkWriter:启用MF_READWRITE_ENABLE_HARDWARE_TRANSFORMS会导致WriteSample失败,并出现E_FAIL错误
我正在尝试通过实现IMFByteStream将RGB / NV12样本编码为h264,并通过SinkWriter通过WebSocket流化编码后的视频。 -
网络摄像头源到EVR接收器
我可以通过将字节样本直接写入<a href="https://msdn.microsoft.com/en-us/library/windows/desktop/ms694916%28v=vs.85%29.aspx" r -
使用IMFSourceReader进行音频流传输(Microsoft Media Foundation)
我使用MFCreateSourceReaderFromByteStream创建一个具有自定义IMFByteStream的IMFSourceReader,该IMFByteStream从远程HTTP源 -
将RGB编码为H.264
我正在做的是尝试在Windows XP和Win7中记录屏幕。我通过使用DirectX的接口CreateOffscreenPlainSurface和GetFrontBuffer -
如何将IMFSample从Windows复制API编码为H264?
我正在寻找一种可行的替代方法来使这项工作 我的目标是一台通用计算机(因此暂时可以在每个 -
以编程方式为应用设置图形性能
Windows控制面板中有一个选项,可以将应用程序设置为“高性能”。 控制面板->系统->显示->图形设置。</ -
IMFSourceReader硬件加速
我正在尝试遵循<a href="https://docs.microsoft.com/en-us/windows/win32/medfound/processing-media-data-with-the-source-reader" rel=" -
使用IMFSinkWriter编码的视频的播放速度会根据宽度而变化
我正在使用<a href="https://docs.microsoft.com/en-us/windows/win32/medfound/tutorial--using-the-sink-writer-to-encode-video" rel="nof -
Sample Grabber Sink未设置媒体类型GUID
我正在使用<a href="https://docs.microsoft.com/en-us/windows/win32/medfound/using-the-sample-grabber-sink" rel="nofollow noreferrer"> -
使用Source Reader从网络摄像头源获取H264样本
使用<a href="https://docs.microsoft.com/en-us/windows/win32/medfound/source-reader" rel="nofollow noreferrer">Source Reader</a>时, -
如何使用Windows Media API(例如Media Foundation或DirectShow)检测相机丢帧?
我正在为Windows编写一个运行CUDA加速HDR算法的应用程序。我已经设置了一个外部图像信号处理器设备,它 -
MediaFoundation将四个摄像头整合到一个框架中
我正在尝试使用MediaFoundation获得HoloLens 2的深度相机。然后,该线程与UWP和MediaFoundation相关。 有了 -
Windows Media基础:未设置IMFSinkWriter WriteSample API返回错误sampleduration
我需要接收RTP流(H264)并将其导出到MP4文件。我们正在使用媒体基础将RTP流中接收的帧导出到mp4文件。 -
在Surface Pro中获取红外摄像头框架
信息似乎很吓人,希望有人可以将我指向sdk,libary代码,以便从Surface Pro的hello相机获取基础框架。 -
Windows Media Foundation 2D缓冲区
我在了解<code>IMF2DBuffer</code>在什么情况下可以使用时遇到了问题。在<code>QueryInterface</code>上使用<code>IMFMe