首页 > 其他分享 >音视频FAQ(二)视频直播延时高

音视频FAQ(二)视频直播延时高

时间:2023-12-01 16:11:06浏览次数:48  
标签:UDP FAQ 网络 音视频 传输 延时 服务器

摘要

延时高是实时互动技术中常见的问题之一,解决延时高问题需要综合考虑网络、设备、编解码算法等多个因素。解决方案包括优化设备端延时、优化网络传输延时和使用UDP进行音视频传输等。在选择音视频传输协议时,需要综合考虑实际需求和网络条件,选择最适合的协议。
本文介绍了延时高的原因和解决方案,希望对音视频开发者能够有所帮助。

前言

对于音视频开发者来说,掌握排查问题的技术技巧方法是非常必要的,排查问题的技术方法也能够帮助开发者更好地了解音视频技术的原理和工作机制,从而更加深入地理解音视频开发中遇到的各种问题。

即构基于多年实时互动领域技术的沉淀和客户服务保障,我们将推出《音视频技术FAQ》系列文章,将音视频技术领域的常见问题和经验分享出来,同时会针对具体问题附上业务通识和常用解决方案以及案例经验,希望本系列能成为你手边的音视频通识册子,帮助到开发者们快速定位问题并找到合适的解决方案。

本系列将不定期更新,目前已整理了以下常见问题:

  1. 视频卡顿
  2. 延时高
  3. 音画不同步
  4. 视频花屏、绿屏
  5. 视频黑屏
  6. 视频放大或黑边
  7. 首开慢
  8. 音视频流控
  9. 视频模糊
  10. 无法打开摄像头
  11. 音频回声
  12. 音量太小
  13. 音频噪声
  14. 无声
  15. 上下麦音量变化

本文是 《音视频技术FAQ》系列 的第二篇文章。在这篇文章中,我们将详细探讨如何处理和排查 “延时高” 的问题,这是实时互动技术中最常见的问题之一。

我们将首先介绍什么是“延时高”,然后列举可能导致问题的原因,最后提供一些解决方案和建议,同时也会介绍一些第三方音视频SDK例 即构实时音视频RTC,我们相信这些信息对于那些正在寻找解决办法的开发者来说将非常有用。

一、延时高的定义

视频通话和直播是两种不同的应用场景,对于时延的容忍度也存在明显差异,主要原因在于它们的应用场景和用户期望不同。视频通话追求实时交互的流畅性,而直播更注重内容的连续性和广泛分发。

  1. 视频通话(实时通信):视频通话追求实时交互的流畅性,最大可容忍时延:通常认为,150毫秒至300毫秒内的延迟是可以接受的,因为在这个范围内,人类通常不会明显感受到通话的延迟。在商务会议、远程医疗或远程教育等场景中,高延迟可能会严重影响效果和用户体验。

  2. 直播:最大可容忍时延:直播的延迟要求会根据具体的应用场景和需求而有所不同。观众在观看直播时,更加关注内容的连续性和清晰度,一般来说,延迟在3秒至30秒之间都可以被认为是可接受的。相较于实时通信,直播对时延的容忍度更高。但这并不是固定的,某些对实时性要求更高的场景可能需要更低的延迟。例秀场直播、电子竞技直播等对实时性要求更高的场景。

二、延时高的问题表现

延时高指的是在实时互动中,由于网络传输、设备性能等因素,导致音视频数据在传输过程中的延迟过高,从而影响到用户的观看和体验。在音视频开发中,延时高一般指音频和视频的延时。
具体场景的影响:

  • 通信过程中出现明显的滞后,如音频或视频的播放与实际发生的时间不同步。
  • 在游戏中,玩家的操作与游戏反应之间存在明显的间隔。
  • 在直播中,主播与观众的互动出现明显的时间差。

三、延时高的产生和原因

音视频传输全流程:音视频采集-编码处理-网络传输-服务器处理-解码处理-音视频播放。
音视频传输流程可以被划分为以下三个主要模块,这些模块都有可能产生延时:

1. 设备端上的延时:包括采集延时、处理延时、编码延时、播放延时。

  • 采集延时:音视频源数据从硬件设备(如麦克风、摄像头)被采集并转换为数字信号的过程中产生的延时。
  • 处理延时:音视频数据在进行各种处理(如降噪、增益控制、回声消除等)的过程中产生的延时。
  • 编解码延时:音视频数据在进行编码(转换为可以传输的格式)和解码(转换为可以播放的格式)的过程中产生的延时。
  • 播放延时:音视频数据在最后播放的过程中产生的延时,包括视频渲染延时和音频播放延时。
  1. 网络传输延时:音视频数据从发送端通过网络传输到接收端的过程中产生的延时,包括以下几个部分:
  • 客户端到服务器的延时:音视频数据从客户端发送到服务器的延时,取决于网络状况、带宽、物理距离等。
  • 服务器内部处理延时:服务器接收、处理、转发数据的过程中产生的延时。
  • 服务器到客户端的延时:服务器将数据发送到客户端的延时,同样取决于网络状况、带宽、物理距离等。
  1. 服务器间的延时:在多服务器或者边缘计算的环境下,音视频数据在服务器之间传输的过程中也会产生延时。

四、延时高的解决方案

在音视频传输全流程中,解决延时高问题是一个综合性的任务,需要从各个环节进行优化和改进。下面我将给出一些建议来解决延时高的问题。

解决音视频传输全流程中的延时高问题,需要从设备端、网络传输、技术栈配置等多个方面进行优化。对于实时性要求较高的音视频传输场景,建议使用UDP协议进行传输,并在设计和选择技术栈时,考虑到预期的延时和实际表现之间的匹配。处理步骤如下:

1. 排查是否是网络问题

2. 优化设备端上的延时

3. 优化网络传输延时

4. 核实技术栈预期延时

5. 使用UDP进行音视频传输

下面我们将逐一详细说明每个步骤,并提供相关示例以帮助读者更好地理解和应用这些步骤。我们还将深入探讨这些步骤的实际应用场景,以帮助开发者更好地理解如何将这些步骤应用于实际问题中。

五、排查是否是网络问题

在处理音视频延时问题时,第一步是确定问题是否源于网络。网络质量、物理距离、以及网络拥塞都可以造成显著的延时。可以使用Ping、Traceroute、iPerf、Wireshark等各种网络测试工具来测试网络延时和丢包率,以确定是否存在网络问题。

网络原因是导致延时高的主要原因之一,解决方案包括以下几个方面:

  • 网络质量:在网络条件不好的情况下,可以采用一些技术来改善网络质量,如使用QoS(Quality of Service)、增强网络连接的稳定性等。
  • 物理距离:尽可能选择离用户近的服务器,减少物理距离带来的延时,增强网络连接的稳定性。
  • 网络拥塞:在网络拥塞的情况下,可以采用拥塞控制算法,如TCP中的拥塞控制,或者使用CDN等技术来分散网络流量。
    同时,监控网络带宽使用情况,确保带宽充足,避免网络拥堵导致延时增加。

六、核实技术栈预期延时

如果我们确定网络状况良好,下一步需要验证你在实际使用的音视频传输过程中的延时,与你使用的技术(例如特定的音视频编解码方案、网络传输协议、服务器配置等)在理论上预期的延时是否匹配。

在验证音视频传输延时与技术预期是否匹配时,有几个步骤可以参考:

  1. 获取技术栈预期延时: 通过阅读相关的技术文档、白皮书或者研究报告,获取你正在使用的编解码方案、网络传输协议等技术的预期延时。这通常会有一个范围,而非精确的数值,因为实际延时会受到很多因素(比如网络状况、设备性能等)的影响。
  2. 测量实际延时: 使用专业的音视频分析工具,例如 Wireshark, FFmpeg, OBS等来获取实际音视频传输的延时。这些工具可以提供音视频流的详细信息,如数据包的时间戳、发送和接收时间等,从而可以用于计算音视频传输的实际延时。
  3. 比较和分析: 将实际测量的延时与技术预期的延时进行比较。如果实际延时显著高于预期延时,那么可能存在问题。分析可能的原因,可能是网络状况不佳,导致了数据包的丢失或者延迟;也可能是编解码设置不当,比如编码级别太高,超出了设备的处理能力;又或者是服务器配置问题,比如服务器的网络带宽不足,不能满足音视频数据的传输需求。
  4. 调整和优化: 根据分析的结果,对可能的问题进行调整和优化。如果是网络问题,可以考虑优化网络环境,或者使用更强大的网络设备;如果是编解码问题,可以调整编解码设置,降低编码级别,或者换用更高效的编解码方案;如果是服务器问题,可以增加服务器的网络带宽,或者优化服务器的配置。

以上步骤1和步骤2比较简单,只需相关的技术文档和使用测量工具即可,在此不赘述。步骤3和步骤4是本环节的核心要点,我们将展开陈述。

七、预期延时的对比和分析

让我们以一个具体的例子来解释这个过程。假设你在实现一个实时音视频通信系统,你选择了使用 H.264 视频编码和 Opus 音频编码,以及 RTP/UDP 网络传输协议。

在你阅读这些技术的相关文档和资料时,你可能会发现一些关于它们在不同网络和硬件条件下的预期延时的数据。例如,H.264 编码可能有 50 毫秒的编解码延时,Opus 编码可能有 20毫秒的编解码延时,RTP/UDP 网络传输可能有 50 毫秒的网络延时。那么,你可以预期,在理想的网络和硬件条件下,你的音视频通信系统的总延时应该在 100 毫秒左右。

然后,你可以使用一些测试工具和方法,例如以上提到的 Ping、iPerf、Wireshark 等,来测量你的系统在实际运行中的延时。 如果你的实际延时与预期的 100 毫秒延时相差不大,那么可以认为你的音视频通信系统的性能与使用的技术栈的预期性能一致。反之,如果你的实际延时远大于预期的 100 毫秒,那么你可能需要进一步分析和优化你的系统,例如,检查你的网络环境、优化你的编解码设置、调整你的网络传输参数等,以降低延时。

八、延时的调整和优化

音视频传输的预期延时,一般来说,取决于所选的技术栈,包括编解码器、传输协议、网络架构等。不同的技术栈对延时的影响程度不同,因此在处理延时问题时,了解并核实所使用的技术栈的预期延时是非常重要的。

  1. 编解码器:音视频编解码器的性能会直接影响到编解码延时。例如,一些复杂的编解码器,如AV1,虽然可以提供高质量的视频,但其编解码过程可能会引入更大的延时。相反,一些更为简单的编解码器,如H.264可能会有更低的编解码延时。因此,核实编解码器的预期延时,有助于理解当前的延时状况是否符合预期。
  2. 传输协议:如上文所述,TCP和UDP是两种常用的网络传输协议,它们对延时的影响程度也不同。TCP提供了可靠的数据传输,但可能会引入较大的延时,因为它需要确保所有数据包的按序到达和错误检测。而UDP则不保证数据包的按序到达或可靠传输,因此通常有更低的延时。如果您正在使用的技术栈包括TCP,那么可能需要接受比UDP更高的预期延时。
  3. 网络架构:音视频传输的网络架构,如点对点传输、云服务器中转等,也会对延时有影响。点对点传输一般可以提供较低的延时,但可能受到各种网络条件的影响。而通过云服务器中转的数据,虽然可以提供更稳定的传输,但可能会增加延时。核实这部分的预期延时,可以帮助您理解是否需要调整网络架构来优化延时。

九、优化设备端上的延时

设备端的延时在音视频传输的全流程中,主要发生在音视频传输的开始(采集、编码)和结束阶段(解码、播放)。设备端的延时通常受设备性能、编解码效率、播放器性能等因素影响。
设备原因也是导致延时高的一个重要原因,针对设备上的延时,可以优化硬件和软件性能。包括以下几个方面:

  • 采集设备性能:优化硬件设备或者采用更高性能的设备来减少采集延时。
  • 编解码性能:采用更高效的编解码算法,或者使用硬件加速来减少编解码延时。
  • 处理性能:优化处理算法,如使用更高效的降噪算法,优化增益控制算法等,以减小处理延时。或者使用更好的硬件设备来减少处理延时。
  • 播放设备性能:采用更高性能的设备,或者优化播放算法和软件来减少播放延时。

总的来说,设备端延时问题是影响音视频传输效果的重要因素,需要进行细致的排查和优化。通过优化硬件设备、编解码器、处理算法和播放器,可以有效地降低设备端延时,提高音视频传输的效果。

十、优化网络传输延时

服务器处理延时:在服务器端,音视频数据的接收、缓冲、处理、转发等过程都可能产生延时。服务器的缓冲策略、转发策略等也会影响服务器处理音视频数据的速度,从而影响延时。
服务器间的延时有以下几个方面:客户端到服务器的延时、服务器内部处理延时、服务器到客户端的延时、服务器间的延时。

优化办法如下:

  • 服务器性能:服务器间的延时问题,可通过提高服务器的硬件性能,或者优化服务器的软件和算法来降低处理延时。
  • 服务器策略:服务器内部处理的延时问题,可通过优化服务器的策略,包括缓冲策略、负载均衡策略、转发策略等,以提高处理和传输效率,降低延时。
  • 优化服务器的物理位置:客户端到服务器或服务器到客户端的的延时问题,使用边缘计算将计算任务分布到离用户更近的边缘服务器上,或者使用内容分发网络(CDN)等技术,将数据尽可能地接近用户分发,以减小服务器之间的物理距离,减少数据在网络中的传输距离,从而减小延时。

在音视频传输中,服务器延时可以通过优化网络路径、服务器性能、使用CDN和UDP协议、应用边缘计算、服务器负载均衡、采用更高效的编解码技术以及提高服务器并发处理能力等多种策略进行有效管理和降低。

在以上策略中,很难指定一个单一的最关键策略,因为每个策略都在特定的场景和问题上发挥着重要的作用。选择最关键的策略取决于实际情况和需求。然而,使用UDP进行音视频传输被认为是在音视频传输中最有效的策略之一。

十一、使用UDP进行音视频传输

UDP(User Datagram Protocol): UDP 是一种无连接的协议,在发送数据时,不需要建立连接,可以直接发送。这种方式在处理实时数据传输,如音视频数据时,往往更加高效。

音视频传输场景通常对实时性和低延迟有严格要求,而UDP(用户数据报协议)在满足这些要求上具有明显优势,特别在低延迟方面表现优异。UDP具备以下优势:

  1. 实时性: 在音视频传输中,实时性是非常重要的,特别是在实时通信场景下,如视频会议、实时直播、在线游戏等。UDP作为无连接的传输协议,可以直接发送数据包,而无需在传输前进行握手和连接建立,这样可以减少传输的时延,保证音视频数据的及时到达,从而实现更好的实时性。
  2. 低延时: 音视频传输对延时的要求非常高,尤其是在交互性强的应用中。TCP作为面向连接的传输协议,在数据传输前需要建立连接、进行数据确认和重传等机制,这些额外的操作会导致传输延时增加。而UDP不需要这些额外操作,能够更快地传输数据,从而降低延时,确保音视频数据的及时传输。
  3. 带宽传输/效率: UDP头部相对较小,没有TCP复杂的连接管理和拥塞控制机制,这使得UDP在传输效率上更高。在音视频传输中,通常需要高效地传输大量的数据,UDP的传输效率可以更好地满足这一需求。
  4. 灵活性: UDP协议相对简单,没有TCP复杂的连接管理机制,使得开发者可以更自由地控制音视频数据的传输过程,根据实际需求进行优化和定制。
  5. 抗丢包性: 在实时通信中,偶尔丢失少数几个数据包对用户体验的影响通常是可以容忍的。UDP是不可靠的传输协议,它没有数据重传机制。一旦数据包丢失,UDP不会重新发送,而是直接丢弃。因为在实时通信中,过度的重传可能导致更大的延时,而且在连续的音视频流中,丢失少数几个数据包不会对整体体验造成太大影响。

虽然UDP在实时性和低延时方面具有优势,但也有一些缺点需要注意。UDP是不可靠的传输协议,会导致数据包丢失和顺序错乱。
因此,在使用UDP进行音视频传输时,需要开发者自己实现一些额外的机制,如前向纠错、重传策略、丢包恢复等,来保证传输的可靠性和数据完整性。
另外,UDP传输对网络的稳定性要求较高,如果网络环境较差或者存在严重的丢包问题,可能会影响音视频传输的质量。
因此,在选择UDP作为音视频传输协议时,需要综合考虑实际需求和网络条件,做出合适的决策。

在选择音视频传输协议时,需要综合考虑实际需求和网络条件。如果实时性和低延时是首要考虑因素,而数据传输的可靠性可以通过应用层的手段解决,那么使用UDP是一个较好的选择。
但如果对数据的完整性和可靠性要求较高,而可以容忍稍微增加的延时,那么TCP也是一个可行的选择。最终的决策应该根据具体场景和需求来做出。

音视频传输的延时问题是一个复杂的问题,需要根据具体情况选择合适的优化策略。音视频厂商针对延时高都有一套成熟的解决方案,若使用第三方音视频SDK服务,可直接使用他们的优化服务。以即构为例,他们的延时高解决方案是基于对音视频处理流程的深入优化,以及对网络传输协议和服务器资源的有效管理。

十二、第三方音视频SDK — “延时高”解决方案

使用第三方音视频SDK可以大大简化开发流程,降低开发难度。并且这些SDK通常都经过了大规模的实际环境测试,能够提供更为可靠的性能。即构SDK是音视频行业的知名产品,可以为开发者提供实时音视频、实时消息、互动白板等服务,其内部包含了优化的音视频编解码技术、网络传输协议、QoS质量控制等模块。

即构科技官网)(https://www.zego.im/

在这里插入图片描述

当你遇到音视频传输延时高的问题时,可以从以下几个角度使用即构SDK来解决:

  1. 利用即构SDK的QoS模块:即构SDK内置了QoS(Quality of Service)模块,可以根据网络状况动态调整传输参数,包括码率、帧率、分辨率等,以保证音视频传输的流畅性和低延时。
  2. 使用即构SDK的网络传输优化功能:即构SDK采用了优化的UDP协议进行音视频传输,包括丢包恢复、网络拥塞控制等功能,可以在保证传输质量的同时,降低音视频传输的延时。
  3. 优化编解码过程:即构SDK内置了优化的音视频编解码算法,可以在保证音视频质量的同时,尽可能地减小编解码过程中的延时。
  4. 使用即构的服务器资源:即构提供了全球多节点的服务器资源,可以保证音视频数据在服务器间的快速传输,从而降低服务器间的延时。

以上的所有优化措施,都可以通过 即构实时音视频RTChttps://www.zego.im/product/realtime-video
的接口进行控制和配置,你可以根据你的应用场景和需求,灵活地选择使用哪些功能和策略。

通过上述的各种优化措施,即构等音视频SDK能够在大部分情况下实现低延迟的音视频传输。当然,如果在使用过程中遇到了特殊的问题,他们通常也会提供专业的技术支持来帮助解决。总的来说,通过使用 即构SDKhttps://www.zego.im,你可以更专注于你的业务逻辑,而将音视频传输的优化交给专业的SDK来完成。

上述提供了音视频厂商和一般性的解决方案,具体实施时可能需要结合具体情况进行调整。针对以上步骤,下面我们来逐一说明。

结语

本文探讨了音视频传输中的高延迟问题,并提供了解决方案。为了优化设备端和网络传输延迟,建议改进硬件设备、编码解码器、处理算法和播放器,并考虑优化服务器处理和物理位置策略。在音视频传输中,使用UDP协议可以有效地降低服务器延迟,但需要注意其不可靠性。因此,在选择音视频传输协议时,需要综合考虑实际需求和网络条件。

标签:UDP,FAQ,网络,音视频,传输,延时,服务器
From: https://www.cnblogs.com/zegoinfo/p/17869941.html

相关文章

  • C#.NET 使用Task.Run和Task.Delay 延时执行任务
    C#.NET使用Task.Run和Task.Delay延时执行任务(代码) 环境:.NET4.5.2.NETWEBMVC+WEBAPI。 示例代码:usingCommonUtils;usingSystem;usingSystem.Threading.Tasks;usingSystem.Web.Http;namespaceWebApiTaskDelay.ApiControllers{publicclassMyCont......
  • WebRTC的QOS技术如何提升音视频通话质量
    摘要随着GPT-4的发布,AI的风越吹越旺。GPT-4可以回答问题,可以写作,甚至可以基于一张草图生成html代码搭建一个网站。即构社区的一位开发者@倪同学就基于目前在研究的WebRTCQOS技术点对GPT-3.5跟GPT-4进行一场实验,ChatGPT会取代程序员还是成为最强辅助?以下为@倪同学的博文。ChatGPT取......
  • 音视频开发工程师需要学习哪些内容?标准技术路线是什么?
    前言音视频行业是近五年IT行业的突起的新贵,在此之前大家用到最多的无非就是ffmpeg编解码。目前来看音视频开发领域的大方向也不少,比较火热的流媒体服务器,安防,安卓NDK,苹果IOS等。咱们先来看一下音视频的运作流程!!音视频生产及消费的核心环节其实只有:采集(声音和图像的数字化)→编码(压......
  • 即时通讯技术文集(第25期):实时音视频基础入门 [共20篇]
    ​为了更好地分类阅读52im.net总计1000多篇精编文章,我将在每周三推送新的一期技术文集,本次是第25 期。[- 1 -] 即时通讯音视频开发(一):视频编解码之理论概述[链接] http://www.52im.net/thread-228-1-1.html[摘要] 本文主要讲解实时音视频技术中视频技术的编解码基础理......
  • 【音视频常见接口HDMI、DP、DVI基础知识】
    DP接口:DisplayPort(简称DP),该接口免认证、免授权金,比较节约钱,主要用于视频源与显示器等设备的连接,也支持携带音频、USB和其他形式的数据。HDMI接口:HighDefinitionMultimedialnterface(简称HDMI),HDMI是一种数字化视频/音频接口技术,可以同时传送音频和影像信号,是一种高清视频接口......
  • 浅析基于智能音视频技术的城市重要场馆智能监控系统设计
    了解旭帆科技的朋友都知道,旭帆科技一直都乐于和大家分享各类场景的视频解决方案,今天小编就基于智能音视频技术的城市重要场馆智能监控系统设计和大家探讨一下。基于智能音视频技术的城市重要场馆智能监控系统设计,主要包含以下要素:1、视频监控系统在重要场馆的关键位置布置高......
  • 【FAQ】推送服务常见问题及解答
    目录1、报错6003解决方案。2、推送成功收不到消息。3、Gettoken返回0,无法进入onToken函数,无法收到广播。4、如何在华为开放平台查看消息属性,推送的时候带了importance字段,但是不能确定该字段是否生效。5、离线角标不显示。6、关于回执问题处理。7、CP关于https://api.push.......
  • pygame播放视频并实现音视频同步
    一、前言在我接触pygame时最新的pygame已经不支持movie模块,这就导致在pygame播放视频变成一个问题,网上搜了下解决方案有两个:一是使用opencv播放视频,再结合pygame.mixer来播放音频二是使用moviepy播放视频,再结合pygame.mixer播放音频上述两个方案其实都是先将mp4的视频分离成“......
  • 超好用的音视频开发指南来咯,建议人手一份
    前言现在市面上的图像,音视频软件越来越多,最近两年也是直播,短视频的红利期。而图像、音视频一直是互联网视觉的入口,掌握并熟练运用音视频、图像技术已经是当前互联网时代不可或缺的技能,而且这个技能是具有沉淀性质的。对于一名合格的音视频开发者来说,我们要掌握的不单单只是一点,而且......
  • Avalonia 实现跨平台的IM即时通讯、语音视频通话(源码,支持信创国产OS,统信、银河麒麟)
       在Avalonia如火如荼的现在,之前使用CPF实现的简单IM,非常有必要基于Avalonia来实现了。Avalonia在跨平台上的表现非常出色,对信创国产操作系统(像银河麒麟、统信UOS、Deepin等)也很不错。   现在,我们就来使用Avalonia实现一个跨平台的简单IM,除了文字聊天外,还可......