-
使用ffmpeg的kmsgrab设备和叠加的网络摄像头录制Linux Wayland / DRM屏幕
安装程序是Linux,使用kabylake iGPU的ffmpeg。 我正在使用<a href="https://swaywm.org" rel="nofollow noreferrer">sway -
Gstreamer:缺少vaapih264enc,即使存在其他vaapi元素
我正在尝试在Ubuntu 18.04上的VAAPI和Gstreamer中使用编码H.264。我很确定我已经安装了所有必需的软件包(<cod -
使用libavcodec和VAAPI从C ++编码视频
我正在尝试使用libavcodec(版本3.4.6)在H.264中对视频进行编码。当我使用软件编码器“ libx264”时,它可 -
为什么ffmpeg不能完全记录所有VAAPI过滤器图形操作,并且比我在这里列出的更多
我已经从启用了<code>ffmpeg</code>的快照编译了<code>vaapi</code>。 <pre><code>$ ffmpeg -hwaccels Hardware acceleration -
为什么在libavfilter中存在vaapi过滤器,但是在我的ffmpeg编译版本中不存在vaapi过滤器?
我已在启用<code>vaapi</code>的情况下编译了ffmpeg的最新快照 <pre class="lang-sh prettyprint-override"><code>$ ffmpeg -
ffmpeg vaapi硬件加速,某些视频无法正常工作
我在Synology NAS上对各种视频进行转码时遇到问题。有些视频可以工作,有些则不能。 ffmpeg命令:</ -
在docker中运行gstreamer vaapi
我正在尝试在docker中运行Gstreamer vaapi插件。我只需要带有Intel后端的vaapi解码器。 在docker中,看起来它可 -
我可以通过使用ffmpeg-fluent在node.js中使用vaapi吗?
我的目标是从电子应用程序中捕获屏幕,但我想使用ffmpeg的h264_vaapi编码器来做到这一点。通过使用ffmpeg- -
如何在Ubunut 18.04上使用gst-launch-1.0将yuv V210转换为h264无损
是否可以使用gst-launch从YUV v210编码的视频创建配置文件为Hi444PP的H264视频?( 我正在尝试使用vaapih264enc) -
如何为OpenCV cv :: va_intel :: convertFromVASurface从GstBuffer / GstMeta中提取vaapi界面ID?
我想用OpenCV处理<code>GstBuffer</code>(VaSurface)。 GstBuffers由gstreaerm-vaapi插件生成。 OpenCV可以通过<code>cv::va_ -
使用 libgstvaapi.so
在我的 Ubuntu 20.04 机器中,我按照 <a href="https://gstreamer.freedesktop.org/documentation/installing/on-linux.html?gi-languag -
使用 QSV、CUDA 和 VAAPI 的自定义 FFMpeg 构建,也可以在其他服务器和目录上运行
因为我是从我第一次使用 FFMpeg 的构建经验开始的。我想构建一个支持 IntelHD GPU (QSV) 和 Nvidia GPU (NVENC) 以 -
FFmpeg av_hwdevice_ctx_create 返回 ENOMEM
我正在尝试使用 ffmpeg 的 vaapi 库在 GPU 上执行 h264 视频编码。 我一直在关注这个来自 ffmpeg Github 存 -
H264 解码总是延迟一帧
编码器对视频进行编码(IDR P P P ...)并发送到解码器并实时显示,我注意到编码器发送第 i 帧,但解码