-
如何使用tshark获得RTP pcap抖动,丢包等的图形视图?
我知道Wireshark GUI工具具有一项功能(RTP分析),它将分析RTP流并提供流的所有详细信息,例如损耗,抖 -
ffmpeg仅将传入的RTP音频流保存到文件
我已安装kurento媒体服务器,该服务器流RTP音频(<strong>仅音频</strong>)。现在,我正在尝试测试收到的RT -
RTP数据包头中的SSRC = 0是否有效?
参考<a href="https://tools.ietf.org/html/rfc3550" rel="nofollow noreferrer">RFC3550</a> <blockquote> 同步源(SSRC) -
通过RTP的Gstream PCM编码为ACC流
我正在尝试将RTP PCM流编码为AAC流...我无法弄清最近的gstreamer管道添加项,这是到目前为止我可以锁定和 -
Live555流服务器RTP丢失的数据包重新传输
live555流服务器是否重新传输丢失的RTP数据包? 当我搜索“ live555转发”时,它会显示一些结果: -
要接受混合的RTP数据包中的delta(时间差)的最小值是多少?
我在RTP的官方文档中读为: <blockquote> 混合器:一种中间系统,该系统从一个或多个源接收RTP数 -
媒体基础:英特尔硬件MFT的SPS / PPS问题
我使用Intel硬件MFT将NV12帧编码为H264流,并使用Live555通过LAN上的RTP通过流传输编码的帧,并在另一端进行 -
如何通过RTP流发送G722编码的音频?
我有一个小的SIP应用程序,基本上是<a href="https://github.com/sipsorcery/sipsorcery/tree/master/examples/UserAgentServer" r -
无论网络条件如何,如何在WebRTC中强制使用特定的分辨率?
我正尝试将WebRTC流量转储到容器中,<strong>但具有一致的分辨率</strong>。为此,应该有一种鼓励浏览器这 -
Twilio语音时间戳
我们的应用程序使用适用于iOS,Android和Web的Twilio语音SDK。我们的用例依赖于精确的设备同步和时间戳。 -
DTLS SRTP不发送任何媒体流
我有一个带有pjproject的外部设备(与SRTP和DTLS支持一起编译),它的工作方式像一部Sipphone。它无法呼叫 -
使用ffmpeg通过RTP流式传输VP8编码的视频
我能够使用ffmpeg创建mpeg编码的SRTP流,但是我需要能够流式传输VP8编码的视频。 这是我用来创建SRT -
当jbenable = yes时rtptimeout不起作用
我使用Asterisk 1.16.5。 设置<code>rtptimeout</code>时<code>jbenable=yes</code>不起作用。 <code>rtptimeout</code>到达后, -
对于DTLS-SRTP双方都需要相同的密码
我对DTLS-SRTP有一个初学者的问题。我想在服务器(LinPhone)和客户端(带有openssl和libsrtp的自写客户端) -
如何为H265 / HEVC对RTP数据中的碎片帧(通过UDP)解包?
我正在尝试对原始RTP H265流进行解包并对其进行重构,以便可以由解码器读取。 通过识别NAL和FU详细信息 -
gstreamer,vlc:通过RTP流式传输vorbis音频
我需要使用gstreamer通过网络流式传输vorbis编码的音频文件,然后使用VLC在接收器上播放该文件。这个问 -
当我使用ffmpeg录制视频时,为什么录制会暂停并挂起
我正在使用FFmpeg记录RTP流,但是遇到问题: 我使用关注命令: FFmpeg -thread_queue_size 128 -i <a h -
将图像帧写入gstreamer rtp管道
我正在尝试使用gstreamer管道在计算机上的vlc中查看rtp流。我主要研究了这个<a href="https://stackoverflow.com/a/4 -
在Java中实现RTSP服务器以在VLC Media Player上流传输视频
我正在尝试实现一个以VLC媒体播放器为客户端的RTSP流服务器。在VLC上开始流式传输时,它正在向服务器 -
在AAC Adts标头之前添加rtp标头
我正在编写一个程序,该程序可以在h264和aac之前打包rtp标头。但是我对RTP时间戳字段感到困惑。 -
ffmpeg命令到srtp流的GStreamer管道
我想将此有效的ffmpeg命令转换为GStreamer管道,但我无法使其正常运行。尝试使用srtpenc将密钥设置为目标 -
使用VLC对视频进行转码
我几乎可以使用以下命令行参数在VLC中用我的Magewell捕获的音频显示完美的4k视频显示: <pre><code>vlc d -
如RFC 8285所述,有关RTP扩展标头的结构的问题
在处理RTP标头扩展的<a href="https://tools.ietf.org/html/rfc8285" rel="nofollow noreferrer">RFC 8285</a>中,1字节标头扩展 -
在哪里可以下载Opus有效负载类型的RTP pcap文件?
我想下载带有opus有效负载类型的RTP pcap。我在<a href="https://wiki.wireshark.org/SampleCaptures?action=AttachFile&do=g -
SRTP-DTLS Gstreamer
谁能帮助我修改服务器端(视频播放器)管道,以便我可以使用SRTP-DTLS执行一种客户端-服务器视频流。 -
使用udp的GST启动rtp
我正在学习Gstreamer,首先,我使用gst-launch工具使用udpsink和udpsrc元素通过网络流传输视频文件。 在 -
无法通过多个“读取”调用从多播套接字读取RTP数据包(或获取其大小)
我无法从使用以下命令打开的多播套接字读取RTP数据包 以下功能: <pre><code>int open_multicast_socket -
如何使用shmsink / shmsrc传输x-rtp流?
以下管道正在运行: <pre><code>gst-launch-1.0 -e videotestsrc ! x264enc tune=zerolatency ! video/x-h264, stream-format=" -
使用gstreamer从linux系统发送的mediacodec在android上解码帧
目前,我有应用程序通过gstreamer管道通过网络编码发送缓冲区,如下所示: <pre><code>appsrc name=src ! vid -
在vlc上播放视频时如何流式传输视频?
我有一个python代码,可以播放目录中的大量视频。我的目标是使用RTP在另一台计算机上流传输此输出。