-
如何使用openCV / ffmpeg
我要逐帧处理“ h264”格式的视频。处理帧以在同一帧中添加某种噪声(例如盐和胡椒噪声),然后从处 -
在Windows中使用FFmpeg使用H.264对视频进行编码
我正在尝试使用FFmpeg(<code>AV_CODEC_ID_H264</code>)用H.264编码视频,但是无法正确初始化编解码器。使用其 -
Gstreamer错过了H.264
我想尝试GStreamer使用RTSP流连接到远程IP摄像机。 因此,我已经下载并安装了最新版本。 在<a href="h -
使用ffmpeg
我看到有关此主题的几个问题,但我仍然遇到错误。我要做的就是将库中的视频转换为HEVC,以便占用更 -
提供少量输入样本后,英特尔图形硬件H264 MFT ProcessInput调用失败,在Nvidia硬件MFT上也能正常工作
我正在使用DesktopDuplication API捕获桌面,并将示例从RGBA转换为GPU中的NV12,并将其提供给MediaFoundation硬件H2 -
Android-将位图编码为AVC(H.264)MP4在某些设备上生成黑白视频(编解码器OMX.MTK.VIDEO.ENCODER.AVC)
我正在尝试从mimap类型为“ video / avc”的位图数组中生成MP4视频。 我正在使用MediaMuxer和MediaCodec。 -
使用gstreamer获取rtsp输入和输出rtmp
我正在尝试使用gstreamer从h264 rtsp输入到rtmp输出再到youtube,而无需重新编码。在ffmpeg中,我可以简单地进 -
如何区分H.264比特流和HEVC比特流?
我有两个解析器来解析h.264和HEVC比特流。当我获得一个比特流时,如何区分这些比特流,以便可以使用 -
GStreamer-RTSP流到FLV文件
我实际上是在进行视频流传输,目标是从摄像机中获取RTSP流并将其转换为FLV文件。这是我尝试过的: -
在MediaFoundation硬件MFT中设置更大的GOP大小 认证的硬件编码器
我正在尝试直播通过桌面复制API捕获的桌面。 H264编码可以正常工作,除了以下事实之外:桌面复制API仅 -
将图像流转换为H.264实时视频流的过程是什么? 我知道该怎么做:我想做的事:
使用任何协议/编解码器的实时流媒体如何从端到端工作? 我一直在搜索google,youtube,FFMPEG文档, -
如何测试安全可靠传输协议的数据包丢失和恢复功能
我在ffmpeg中使用h264编码方法,并且能够通过UDP协议进行流式传输。没有丢包,视频质量很好。由于UDP协 -
英特尔H264硬件MFT不遵守GOP设置
<strong>问题陈述:</strong> Intel硬件MFT不遵守GOP设置,导致实时应用程序占用更多带宽。相同的代 -
H264解码的最小FFMPEG配置选项
我正在使用LS1021A板进行项目开发,该板具有Cortex-A7,NEON,FPU等,似乎与Raspberry Pi 2非常相似。我们正在 -
带有马赛克的rtsp客户端显示
对不起,我是RTSP的新手。但是我确实面临一个荒谬的问题,希望有人能帮助我。 我在嵌入式设备 -
Python Opencv和套接字-流视频以h264编码
所以我试图制作一个流媒体,将视频从一台计算机流传输到局域网上的另一台计算机(或现在是同一台 -
FFmpeg Javacv-延迟问题
我正在使用android v21设备将数据流传输到javafx应用程序。它的工作正常,但我有大约2秒钟的延迟。 <p -
metecho janus破碎的mjr录制vp8和h264
在janus中,vp8流的随机mjr记录已损坏。尝试转换记录时,我得到了: <pre><code>/opt/janus/bin/janus-pp-rec /op -
使用ffmpeg提取h.26x视频各个帧的量化参数
如果我执行这样的命令: <pre><code>$ ffmpeg -i video.mp4 -qphist -vf codecview=qp=true video_qp.mp4 </code></pre> 我 -
从子流程标准输出解码原始H264帧
我正在尝试使用python从子进程的原始h264流中提取帧。该代码旨在用于流式传输Android屏幕,它基于休闲命 -
当输入是实时摄像头设备时,使用输入帧率选项(在FFmpeg中)使用时,预期的行为是什么?
据我所知,<em> Framerate </em>选项的使用应仅在输入文件(如图像序列或可能没有定义的PTS的视频文件)上 -
使用命令行为P帧提取特定于帧的所有H.264 NALU
我想使用ffmpeg从命令行提取帧数据,类似于调用av_send_frame然后调用av_receive_packet(直到EOF /错误)。我想 -
如何通过RTMP发送用于h264的PTS
我已经进行了很多搜索,但是无法获得足够多的信息以了解如何将它们真正结合在一起。 因此, -
用法FFmpeg命令从Apple设备相机捕获视频并获取3个具有不同分辨率(UHD,FHD,HD)的输出
我使用mobile-FFmpeg执行FFmpeg命令(<a href="https://github.com/tanersener/mobile-ffmpeg" rel="nofollow noreferrer">https://github -
带有H.264的mpeg-4容器的最低要求的原子/盒子集(一个流,逐行视频,无音频)
我需要将H.264视频封装到mpeg-4容器中。我需要的盒/原子的绝对最小集是多少? 包含的H.264视频是渐进式 -
在P帧的长期参考列表中如何使用IDR帧? (H.264)
回顾文档,书籍和规格,我试图了解P框架如何引用最新的IDR框架。 默认情况下,列表0(为简单起 -
使用gstreamer将h264编码的rtsp流保存到mp4文件中
<code>gst-launch-1.0 -e rtspsrc location=rtsp://192.168.-.-/ ! rtph264depay ! h264parse ! video/x-h264, width=640,height=480 ! mp4mux ! -
强制x264对相对于第一(IDR)帧的所有帧进行编码
我想生成一个h.264流,其中P帧仅使用对第一帧(IDR帧)的长期引用来专门使用引用。这也将要求第一帧 -
XCode-使用MobileVLCKit时如何解决此重复的符号错误
我正在使用两个框架-MobileVLCKit和TTXSDK(<a href="https://github.com/tongtianxing/ios_cmsv6demo" rel="nofollow noreferrer">htt -
使用VideoToolbox和h264
尝试使用VideoToolbox使用iPhone 7和iPad Pro 10.5平稳播放h264。除了这两台机器,其他所有操作都会失败。它刚