-
如何在TexureView上渲染YUVI420框架?
我可以使用openGL在<code>YUVI420</code>上渲染<code>GLSurfaceView</code>框架,但由于某些原因,我的要求是在<code>S -
原始yuv420p数据上的sws_scale
我正在从树莓派获取yuv420p格式的相机数据。我正在尝试使用<code>sws_scale</code>将它们转换为RGBA格式。这 -
在Android中将YUV数据绘制到Surface的最佳方法是什么?
我需要以特定方式播放视频。这就是为什么我需要“预解码”某些帧并保留并稍后显示。我使用<em> MediaC -
libavcodec:如何将原始视频(YUV420P)帧编码为有效位图以保存到“ .bmp”文件?
我试图通过使用libavcodec将原始视频(YUV420P)编码为AV_CODEC_ID_BMP格式,将随机视频帧保存到'.bmp'文件中, -
使用DirectX11像素着色器将颜色从DXGI_FORMAT_B8G8R8A8_UNORM转换为GPU中的NV12
我正在编写一个代码,以使用桌面复制捕获桌面,并使用英特尔hardwareMFT将其编码为h264。编码器仅接受NV -
使用opencv进行YUV帧平均
我试图读取yuv视频,然后执行帧平均,但是这样做时遇到了问题,我的代码如下所示(这是通过组合yuv -
为什么Android Camera onPreviewFrame数据丢失色彩通道?
下面的代码可以,可以在某些android设备上使用,位图看起来不错。 <pre><code>@Override public void onPreviewF -
如何从yuv框架中获取形状(宽度,高度,3)的额外尺寸值
我有一些读取yuv帧并返回单独组件的代码,我试图将其集成到一些读取mp4文件并随后进行一些处理的代 -
ffmpeg隐藏yuv到mp4失败:“无效的缓冲区大小,数据包大小”
嗨,我正尝试使用以下命令将YUV视频转换为AVI格式: “ <code>ffmpeg -f rawvideo -vcodec rawvideo -s 512x512 -r 25 -pix -
使用fmpeg从MP4文件中提取仅Y帧(YUV420p)吗?
我的主要目标是提取<em> th </em>,<em> I + 1'</em>(下一个),<em> I-1'th </em>( mp4视频中仅Y格式(YUV 420)的 -
使用python提取YUV NV21图像文件的Exif数据
我需要为YUV NV21文件格式的图像提取Exif数据。枕头不支持NV21。如何使用python做到这一点? -
如何使I420图像数据不失真?有效率的
我能够成功使RGB图像失真。 现在,我正在直接处理I420数据,而不是先将其转换为RGB。 下面 -
如何使用python和openCV从.yuv视频文件(YUV420)中提取帧?
我需要读取一个yuv视频文件,从中提取单个帧,将其转换为灰度,然后计算相邻帧之间的Lucas Kanade光流 -
使用ffmpeg从mp4视频中提取Yuv帧
我想使用ffmpeg从mp4剪辑中提取原始Yuv帧。 ffmpeg -i input.mp4告诉我视频格式为yuv420p10le。我正在使用以下命 -
媒体编解码器解码器可以输出类似RGB的格式吗?
我正在尝试使用Android Media Codec转换VP9视频。当我设置 <em> KEY_COLOR_FORMAT </em>格式转换为YUV格式以外的格式 -
将yuvj420p转换为CVPixelBufferRef使用ffmpeg时ios崩溃
我需要从IP摄像机获取rtsp蒸汽并将AVFrame数据转换为CVPixelBufferRef 以便将数据发送到其他SDK 首先, -
glEGLImageTargetTexture2DOES不同步
我使用<code>AHardwareBuffer</code>和<code>glEGLImageTargetTexture2DOES</code>将YUV摄像机流直接渲染到<code>samplerExternalOE -
COLOR_FormatYUV420SemiPlanar MediacCodec
我正在尝试从图像编码视频。 当我将COLOR_FormatYUV420SemiPlanar用作colorFormat时,我会得到非常好的视频。 但 -
旋转YUV420 android.media.Image Android
我正在尝试获取多个图像,并将它们通过算法进行处理。我使用的格式是<code>YUV_420_8888</code>,如下所示 -
Renderscript致命信号11(SIGSEGV)代码1(SEGV_MAPERR)故障加法器
我正在使用camera2 API来获取格式为<code>ImageFormat.YUV_420_888</code>的图像流。我需要使用一个库对它们进行一 -
如何使用FFmpeg和python中的子处理模块将.mp4视频文件转换为.yuv(YUV420),反之亦然?
我必须在我的python程序中将.mp4视频文件转换为.yuv(YUV420),反之亦然。如何使用FFmpeg和python中的子进程 -
Gstreamer:将YUV(4:2:0)原始视频转换为mp4(带有h264编码)
这是我正在运行的,但是它不起作用。该命令怎么了? <pre><code>gst-launch-1.0 filesrc location=secuencias/RaceH -
使用libturbojpeg将NSImage(RGB)转换为YUV
我正在尝试将NSImage(使用FaceTime相机拍摄)转换为YUV,但到目前为止还没有运气。我尝试使用<code>libturbo -
Vulkan-渲染为多平面YUV渲染目标
我在Vulkan规范中找不到支持或反对的任何东西: 是否可以渲染为YUV420p格式的渲染目标纹理? 如果是这 -
将YV12数据帧渲染为物镜C中的图像
我正面临着同样的问题。我正在尝试渲染YV12格式的视频帧。由于某种原因,我可以在框架上看到蓝色和 -
将yuv420转换为RGBA问题
我在抖动中使用ffi将yuv420随附的相机的帧转换为RGB。该代码在C中。该代码有问题,因为它在转换后的图 -
如何使用Direct3D 12将单个纹理从RGBA转换为NV12?
github上有一个无用的D3D12示例代码项目 <a href="https://github.com/microsoft/D3D12TranslationLayer" rel="nofollow noreferrer -
如何将YUV420P / YCbCr保存为JPEG
这更是一个普遍的问题,但是我可以使用一些实际的答案,我有三个缓冲区作为YUV的平面。这是我的相 -
使用YUV 4:2:2数据作为OpenGL纹理
我正在尝试将4:2:2 YUV像素数据转换为OpenGL纹理。数据的布局为8位U:Y1:V:Y2,因此2个像素占据了32位 -
CVOpenGLESTextureCacheCreateTextureFromImage如何创建kCVPixelFormatType_420YpCbCr10BiPlanarFullRange纹理?
我想从CVOpenGLESTextureCacheCreateTextureFromImage获取10bit 420sp纹理,但是失败了。如何从CVOpenGLESTextureCacheCreateTex