首页 > 编程语言 >Qt/C++音视频开发61-多屏渲染/一个解码渲染到多个窗口/画面实时同步

Qt/C++音视频开发61-多屏渲染/一个解码渲染到多个窗口/画面实时同步

时间:2023-12-26 10:22:18浏览次数:78  
标签:视频 多屏 渲染 AppConfig 支持 音视频 ui Plus 播放

一、前言

多屏渲染就是一个解码线程对应多个渲染界面,通过addrender这种方式添加多个绘制窗体,我们经常可以在展会或者卖电视机的地方可以看到很多电视播放的同一个画面,原理应该类似,一个地方负责打开解码播放,将画面同步传输到多个显示的地方,完全保证了画面的一致性。这样相当于复用了解码,极大的降低了资源的占用,重复利用解码资源。

如果是ffmpeg内核或者其他内核转换成了image信号发出来的,可以直接用信号关联到对应窗体即可,如果是mdk内核或者qtav内核,他们提供的都是addrender这种方式,将继承自qopenglwidget或者qglwidget的窗体,添加到需要渲染的队列中就行,要多少个就添加多少,通过opengl绘制视频数据还是非常好的,每增加一个窗体,只是增加部分GPU占用,几乎不会增加CPU占用,要的就是这种效果。

二、效果图

三、体验地址

  1. 国内站点:https://gitee.com/feiyangqingyun
  2. 国际站点:https://github.com/feiyangqingyun
  3. 个人作品:https://blog.csdn.net/feiyangqingyun/article/details/97565652
  4. 体验地址:https://pan.baidu.com/s/1d7TH_GEYl5nOecuNlWJJ7g 提取码:01jf 文件名:bin_video_demo。
  5. 视频主页:https://space.bilibili.com/687803542

四、功能特点

4.1. 基础功能

  1. 支持各种音频视频文件格式,比如mp3、wav、mp4、asf、rm、rmvb、mkv等。
  2. 支持本地摄像头设备和本地桌面采集,支持多设备和多屏幕。
  3. 支持各种视频流格式,比如rtp、rtsp、rtmp、http、udp等。
  4. 本地音视频文件和网络音视频文件,自动识别文件长度、播放进度、音量大小、静音状态等。
  5. 文件可以指定播放位置、调节音量大小、设置静音状态等。
  6. 支持倍速播放文件,可选0.5倍、1.0倍、2.5倍、5.0倍等速度,相当于慢放和快放。
  7. 支持开始播放、停止播放、暂停播放、继续播放。
  8. 支持抓拍截图,可指定文件路径,可选抓拍完成是否自动显示预览。
  9. 支持录像存储,手动开始录像、停止录像,部分内核支持暂停录像后继续录像,跳过不需要录像的部分。
  10. 支持无感知切换循环播放、自动重连等机制。
  11. 提供播放成功、播放完成、收到解码图片、收到抓拍图片、视频尺寸变化、录像状态变化等信号。
  12. 多线程处理,一个解码一个线程,不卡主界面。

4.2. 特色功能

  1. 同时支持多种解码内核,包括qmedia内核(Qt4/Qt5/Qt6)、ffmpeg内核(ffmpeg2/ffmpeg3/ffmpeg4/ffmpeg5/ffmpeg6)、vlc内核(vlc2/vlc3)、mpv内核(mpv1/mp2)、mdk内核、海康sdk、easyplayer内核等。
  2. 非常完善的多重基类设计,新增一种解码内核只需要实现极少的代码量,就可以应用整套机制,极易拓展。
  3. 同时支持多种画面显示策略,自动调整(原始分辨率小于显示控件尺寸则按照原始分辨率大小显示,否则等比缩放)、等比缩放(永远等比缩放)、拉伸填充(永远拉伸填充)。所有内核和所有视频显示模式下都支持三种画面显示策略。
  4. 同时支持多种视频显示模式,句柄模式(传入控件句柄交给对方绘制控制)、绘制模式(回调拿到数据后转成QImage用QPainter绘制)、GPU模式(回调拿到数据后转成yuv用QOpenglWidget绘制)。
  5. 支持多种硬件加速类型,ffmpeg可选dxva2、d3d11va等,vlc可选any、dxva2、d3d11va,mpv可选auto、dxva2、d3d11va,mdk可选dxva2、d3d11va、cuda、mft等。不同的系统环境有不同的类型选择,比如linux系统有vaapi、vdpau,macos系统有videotoolbox。
  6. 解码线程和显示窗体分离,可指定任意解码内核挂载到任意显示窗体,动态切换。
  7. 支持共享解码线程,默认开启并且自动处理,当识别到相同的视频地址,共享一个解码线程,在网络视频环境中可以大大节约网络流量以及对方设备的推流压力。国内顶尖视频厂商均采用此策略。这样只要拉一路视频流就可以共享到几十个几百个通道展示。
  8. 自动识别视频旋转角度并绘制,比如手机上拍摄的视频一般是旋转了90度的,播放的时候要自动旋转处理,不然默认是倒着的。
  9. 自动识别视频流播放过程中分辨率的变化,在视频控件上自动调整尺寸。比如摄像机可以在使用过程中动态配置分辨率,当分辨率改动后对应视频控件也要做出同步反应。
  10. 音视频文件无感知自动切换循环播放,不会出现切换期间黑屏等肉眼可见的切换痕迹。
  11. 视频控件同时支持任意解码内核、任意画面显示策略、任意视频显示模式。
  12. 视频控件悬浮条同时支持句柄、绘制、GPU三种模式,非绝对坐标移来移去。
  13. 本地摄像头设备支持指定设备名称、分辨率、帧率进行播放。
  14. 本地桌面采集支持设定采集区域、偏移值、指定桌面索引、帧率、多个桌面同时采集等。还支持指定窗口标题采集固定窗口。
  15. 录像文件同时支持打开的视频文件、本地摄像头、本地桌面、网络视频流等。
  16. 瞬间响应打开和关闭,无论是打开不存在的视频或者网络流,探测设备是否存在,读取中的超时等待,收到关闭指令立即中断之前的操作并响应。
  17. 支持打开各种图片文件,支持本地音视频文件拖曳播放。
  18. 视频流通信方式可选tcp/udp,有些设备可能只提供了某一种协议通信比如tcp,需要指定该种协议方式打开。
  19. 可设置连接超时时间(视频流探测用的超时时间)、读取超时时间(采集过程中的超时时间)。
  20. 支持逐帧播放,提供上一帧/下一帧函数接口,可以逐帧查阅采集到的图像。
  21. 音频文件自动提取专辑信息比如标题、艺术家、专辑、专辑封面,自动显示专辑封面。
  22. 视频响应极低延迟0.2s左右,极速响应打开视频流0.5s左右,专门做了优化处理。
  23. 支持H264/H265编码(现在越来越多的监控摄像头是H265视频流格式)生成视频文件,内部自动识别切换编码格式。
  24. 支持用户信息中包含特殊字符(比如用户信息中包含+#@等字符)的视频流播放,内置解析转义处理。
  25. 支持滤镜,各种水印及图形效果,支持多个水印和图像,可以将OSD标签信息和各种图形信息写入到MP4文件。
  26. 支持视频流中的各种音频格式,AAC、PCM、G.726、G.711A、G.711Mu、G.711ulaw、G.711alaw、MP2L2等都支持,推荐选择AAC兼容性跨平台性最好。
  27. 内核ffmpeg采用纯qt+ffmpeg解码,非sdl等第三方绘制播放依赖,gpu绘制采用qopenglwidget,音频播放采用qaudiooutput。
  28. 内核ffmpeg和内核mdk支持安卓,其中mdk支持安卓硬解码,性能非常凶残。
  29. 可以切换音视频轨道,也就是节目通道,可能ts文件带了多个音视频节目流,可以分别设置要播放哪一个,可以播放前设置好和播放过程中动态设置。
  30. 可以设置视频旋转角度,可以播放前设置好和播放过程中动态改变。
  31. 视频控件悬浮条自带开始和停止录像切换、声音静音切换、抓拍截图、关闭视频等功能。
  32. 音频组件支持声音波形值数据解析,可以根据该值绘制波形曲线和柱状声音条,默认提供了声音振幅信号。
  33. 标签和图形信息支持三种绘制方式,绘制到遮罩层、绘制到图片、源头绘制(对应信息可以存储到文件)。
  34. 通过传入一个url地址,该地址可以带上通信协议、分辨率、帧率等信息,无需其他设置。
  35. 保存视频到文件支持三种策略,自动处理、仅限文件、全部转码,转码策略支持自动识别、转264、转265,编码保存支持指定分辨率缩放或者等比例缩放。比如对保存文件体积有要求可以指定缩放后再存储。
  36. 支持加密保存文件和解密播放文件,可以指定秘钥文本。
  37. 提供的监控布局类支持64通道同时显示,还支持各种异型布局,比如13通道,手机上6行2列布局。各种布局可以自由定义。
  38. 支持电子放大,在悬浮条切换到电子放大模式,在画面上选择需要放大的区域,选取完毕后自动放大,再次切换放大模式可以复位。
  39. 各组件中极其详细的打印信息提示,尤其是报错信息提示,封装的统一打印格式。针对现场复杂的设备环境测试极其方便有用,相当于精确定位到具体哪个通道哪个步骤出错。
  40. 同时提供了简单示例、视频播放器、多画面视频监控、监控回放、逐帧播放、多屏渲染等单独窗体示例,专门演示对应功能如何使用。
  41. 监控回放可选不同厂家类型、回放时间段、用户信息、指定通道。支持切换回放进度。
  42. 可以从声卡设备下拉框选择声卡播放声音,提供对应的切换声卡函数接口。
  43. 支持编译到手机app使用,提供了专门的手机app布局界面,可以作为手机上的视频监控使用。
  44. 代码框架和结构优化到最优,性能强悍,注释详细,持续迭代更新升级。
  45. 源码支持windows、linux、mac、android等,支持各种国产linux系统,包括但不限于统信UOS/中标麒麟/银河麒麟等。还支持嵌入式linux。
  46. 源码支持Qt4、Qt5、Qt6,兼容所有版本。

4.3. 视频控件

  1. 可动态添加任意多个osd标签信息,标签信息包括名字、是否可见、字号大小、文本文字、文本颜色、背景颜色、标签图片、标签坐标、标签格式(文本、日期、时间、日期时间、图片)、标签位置(左上角、左下角、右上角、右下角、居中、自定义坐标)。
  2. 可动态添加任意多个图形信息,这个非常有用,比如人工智能算法解析后的图形区域信息直接发给视频控件即可。图形信息支持任意形状,直接绘制在原始图片上,采用绝对坐标。
  3. 图形信息包括名字、边框大小、边框颜色、背景颜色、矩形区域、路径集合、点坐标集合等。
  4. 每个图形信息都可指定三种区域中的一种或者多种,指定了的都会绘制。
  5. 内置悬浮条控件,悬浮条位置支持顶部、底部、左侧、右侧。
  6. 悬浮条控件参数包括边距、间距、背景透明度、背景颜色、文本颜色、按下颜色、位置、按钮图标代码集合、按钮名称标识集合、按钮提示信息集合。
  7. 悬浮条控件一排工具按钮可自定义,通过结构体参数设置,图标可选图形字体还是自定义图片。
  8. 悬浮条按钮内部实现了录像切换、抓拍截图、静音切换、关闭视频等功能,也可以自行在源码中增加自己对应的功能。
  9. 悬浮条按钮对应实现了功能的按钮,有对应图标切换处理,比如录像按钮按下后会切换到正在录像中的图标,声音按钮切换后变成静音图标,再次切换还原。
  10. 悬浮条按钮单击后都用名称唯一标识作为信号发出,可以自行关联响应处理。
  11. 悬浮条空白区域可以显示提示信息,默认显示当前视频分辨率大小,可以增加帧率、码流大小等信息。
  12. 视频控件参数包括边框大小、边框颜色、焦点颜色、背景颜色(默认透明)、文字颜色(默认全局文字颜色)、填充颜色(视频外的空白处填充黑色)、背景文字、背景图片(如果设置了图片优先取图片)、是否拷贝图片、缩放显示模式(自动调整、等比缩放、拉伸填充)、视频显示模式(句柄、绘制、GPU)、启用悬浮条、悬浮条尺寸(横向为高度、纵向为宽度)、悬浮条位置(顶部、底部、左侧、右侧)。

五、相关代码

#include "frmplayplus.h"
#include "frmmain.h"
#include "ui_frmplayplus.h"
#include "qthelper.h"
#include "videoutil.h"
#include "videohelper.h"
#include "videobox.h"
#include "videowidgetx.h"

#ifdef mdkx
#include "mdkplayer.h"
#include "mdkwidget.h"
#include "mdkhelper.h"
#endif

#ifdef qtavx
#include "AVPlayer.h"
#include "VideoOutput.h"
#include "qtavhelper.h"
using namespace QtAV;
#endif

frmPlayPlus::frmPlayPlus(QWidget *parent) : QWidget(parent), ui(new Ui::frmPlayPlus)
{
    ui->setupUi(this);
    this->initForm();
    this->initUrl();
    this->initConfig();
    this->initWidget(0);
}

frmPlayPlus::~frmPlayPlus()
{
    if (ui->btnOpen->text() == "关闭") {
        this->clearWidget(0);
    }
    delete ui;
}

bool frmPlayPlus::eventFilter(QObject *watched, QEvent *event)
{
    int type = event->type();
    if (type == QEvent::MouseButtonPress) {
        pressedTime = QDateTime::currentDateTime();
        if (qApp->mouseButtons() == Qt::RightButton) {
            videoMenu->exec(QCursor::pos());
        }
    } else if (type == QEvent::MouseButtonRelease) {
#ifdef Q_OS_ANDROID
        //长按弹出菜单
        int offset = pressedTime.msecsTo(QDateTime::currentDateTime());
        if (offset >= 1000) {
            videoMenu->exec(QCursor::pos());
        }
#endif
    }

    return QWidget::eventFilter(watched, event);
}

void frmPlayPlus::initForm()
{
#ifdef appui
    ui->verticalLayout->insertWidget(1, ui->cboxVideoUrl);
    ui->cboxVideoCore->setSizePolicy(QSizePolicy::Expanding, QSizePolicy::Fixed);
    ui->cboxScaleMode->setSizePolicy(QSizePolicy::Expanding, QSizePolicy::Fixed);
    ui->cboxHardware->setSizePolicy(QSizePolicy::Expanding, QSizePolicy::Fixed);
#endif

    player = new QObject;

    //右键菜单
    videoMenu = new QMenu(this);
    this->installEventFilter(this);

    //实例化通道布局类
    videoBox = new VideoBox(this);
    connect(videoBox, SIGNAL(changeVideo(int, QString, bool)), this, SLOT(changeVideo(int, QString, bool)));
    videoBox->setLayout(ui->gridLayout);
    videoBox->setVideoType(AppConfig::Plus_VideoType);

    //添加自定义行列数的布局
    //videoBox->appendType(1, 8, 3);
    videoBox->initMenu(videoMenu);
}

void frmPlayPlus::initUrl()
{
    frmMain::initUrl(ui->cboxVideoUrl, AppConfig::Plus_VideoUrl);
}

void frmPlayPlus::initConfig()
{
    VideoUtil::loadVideoUrl(ui->cboxVideoUrl, AppConfig::Plus_VideoUrl, -1);
    connect(ui->cboxVideoUrl->lineEdit(), SIGNAL(textChanged(QString)), this, SLOT(saveConfig()));

    VideoUtil::loadVideoCore(ui->cboxVideoCore, AppConfig::Plus_VideoCore, true);
    connect(ui->cboxVideoCore, SIGNAL(currentIndexChanged(int)), this, SLOT(saveConfig()));

    VideoUtil::loadScaleMode(ui->cboxScaleMode);
    ui->cboxScaleMode->setCurrentIndex(AppConfig::Plus_ScaleMode);
    connect(ui->cboxScaleMode, SIGNAL(currentIndexChanged(int)), this, SLOT(saveConfig()));

    VideoUtil::loadHardware(ui->cboxHardware, (VideoCore)AppConfig::Plus_VideoCore, AppConfig::Plus_Hardware);
    connect(ui->cboxHardware, SIGNAL(currentIndexChanged(int)), this, SLOT(saveConfig()));
}

void frmPlayPlus::saveConfig()
{
    //内核变化后做出对应的处理/比如切换硬解码名称
    int videoCore = ui->cboxVideoCore->itemData(ui->cboxVideoCore->currentIndex()).toInt();
    if (AppConfig::Plus_VideoCore != videoCore) {
        AppConfig::Plus_VideoCore = videoCore;
        VideoCore core = (VideoCore)AppConfig::Plus_VideoCore;
        VideoUtil::loadHardware(ui->cboxHardware, core, AppConfig::Plus_Hardware);
    }

    AppConfig::Plus_ScaleMode = ui->cboxScaleMode->currentIndex();
    AppConfig::Plus_VideoUrl = ui->cboxVideoUrl->currentText().trimmed();
    AppConfig::Plus_Hardware = ui->cboxHardware->currentText();
    AppConfig::writeConfig();
}

void frmPlayPlus::initPlayer(int type)
{
    player->deleteLater();
    player = NULL;

    if (type == 5) {
#ifdef mdkx
        player = new MdkPlayer;
        player->setObjectName("MdkPlayer");
#endif
    } else if (type == 6) {
#ifdef qtavx
        player = new AVPlayer;
        player->setObjectName("AVPlayer");
#endif
    }

    if (!player) {
        player = new QObject;
    }
}

void frmPlayPlus::initWidget(int type)
{
    this->clearWidget(type);
    this->initPlayer(type);

    int scale = AppConfig::Plus_ScaleMode;
    QString hardware = AppConfig::Plus_Hardware;

    //取出当前画面数
    int count = 4;
    QString videoType = videoBox->getVideoType();
    QStringList list = videoType.split("_");
    if (videoType.contains("x")) {
        list = list.last().split("x");
        count = (list.at(0).toInt() * list.at(1).toInt());
    } else if (list.count() == 2) {
        count = (list.at(1).toInt() - list.at(0).toInt() + 1);
    }

    //按照当前画面数量生成需要同屏渲染的画面
    for (int i = 0; i < count; ++i) {
        QWidget *widget;
        if (type == 5) {
#ifdef mdkx
            MdkPlayer *p = (MdkPlayer *)player;
            widget = new MdkWidget(p);
            p->setAspect((scale != 2 ? mdk::KeepAspectRatio : mdk::IgnoreAspectRatio), widget);
#endif
        } else if (type == 6) {
#ifdef qtavx
            VideoOutput *v = new VideoOutput;
            v->setOutAspectRatioMode((scale != 2 ? VideoOutput::VideoAspectRatio : VideoOutput::RendererAspectRatio));
            widget = v->widget();
            renders << v;
#endif
        } else {
            VideoWidget *w = new VideoWidget;
            connect(w, SIGNAL(sig_receivePlayFinsh()), w, SLOT(stop()));
            WidgetPara widgetPara = w->getWidgetPara();
            widgetPara.sharedData = true;
            widgetPara.scaleMode = (ScaleMode)scale;
            w->setWidgetPara(widgetPara);

            VideoPara videoPara = w->getVideoPara();
            videoPara.videoCore = VideoCore_FFmpeg;
            videoPara.hardware = hardware;
            videoPara.playRepeat = true;
            videoPara.connectTimeout = 0;
            w->setVideoPara(videoPara);
            widget = w;
        }

        //widget->installEventFilter(this);
        widgets << widget;
    }

    //剩余的用空窗体填充
    for (int i = 0; i < (64 - count); ++i) {
        VideoWidget *widget = new VideoWidget;
        widget->installEventFilter(this);
        widgets << widget;
    }

    videoBox->setWidgets(widgets);
    videoBox->show_video_all();
    this->playWidget(type);
}

void frmPlayPlus::clearWidget(int type)
{
    if (type == 0 && player) {
        QString objName = player->objectName();
        int core = AppConfig::Plus_VideoCore;
        if (core == 2) {
            foreach (QWidget *widget, widgets) {
                VideoWidget *w = (VideoWidget *)widget;
                w->stop();
            }
        } else if (core == 5) {
#ifdef mdkx
            if (objName == "MdkPlayer") {
                MdkPlayer *p = (MdkPlayer *)player;
                p->stop();
            }
#endif
        } else if (core == 6) {
#ifdef qtavx
            if (objName == "AVPlayer") {
                AVPlayer *p = (AVPlayer *)player;
                p->stop();
                qDeleteAll(renders);
                renders.clear();
            }
#endif
        }
    }

    qDeleteAll(widgets);
    widgets.clear();
}

void frmPlayPlus::playWidget(int type)
{
    QString url = AppConfig::Plus_VideoUrl;
    VideoType videoType = VideoHelper::getVideoType(url);
    url = VideoHelper::getRightUrl(videoType, url);
    QString hardware = AppConfig::Plus_Hardware;

    if (type == 2) {
        foreach (QWidget *widget, widgets) {
            VideoWidget *w = (VideoWidget *)widget;
            w->open(url);
        }
    } else if (type == 5) {
#ifdef mdkx
        MdkPlayer *p = (MdkPlayer *)player;
        p->setDecoders(MdkHelper::getHardware(hardware));
        p->setMedia(url);
        p->setLoop(-1);
        p->play();
#endif
    } else if (type == 6) {
#ifdef qtavx
        AVPlayer *p = (AVPlayer *)player;
        foreach (VideoOutput *v, renders) {
            p->addVideoRenderer(v);
        }
        p->setVideoDecoderPriority(QtavHelper::getHardware(hardware));
        p->setRepeat(-1);
        p->play(url);
#endif
    }
}

void frmPlayPlus::changeVideo(int type, const QString &videoType, bool videoMax)
{
    AppConfig::Plus_VideoType = videoType;
    AppConfig::writeConfig();
}

void frmPlayPlus::on_btnOpen_clicked()
{
    if (ui->btnOpen->text() == "打开") {
        this->initWidget(AppConfig::Plus_VideoCore);
        ui->btnOpen->setText("关闭");
        ui->cboxVideoCore->setEnabled(false);
    } else {
        this->initWidget(0);
        ui->btnOpen->setText("打开");
        ui->cboxVideoCore->setEnabled(true);
    }
}

标签:视频,多屏,渲染,AppConfig,支持,音视频,ui,Plus,播放
From: https://www.cnblogs.com/feiyangqingyun/p/17927553.html

相关文章

  • 揭秘抖音视频详情API:电商行业的制胜法宝与实时数据获取的奥秘
    一、引言随着社交媒体的普及和电商行业的快速发展,抖音等短视频平台已经成为电商企业获取用户、推广产品和了解市场趋势的重要渠道。获取抖音视频详情API对于电商行业来说具有重要意义,它可以帮助企业实时获取抖音平台上的视频数据,洞察用户需求,优化产品策略,制定精准营销计划,从而提升......
  • Cocos Creator 2.x之ScrollView分层渲染
    一,场景设计1,ScrollViewPrefab:挂载ScrollViewPrefab脚本。2,ScrollViewPrefabItem:挂载ScrollViewPrefabItem脚本。是内容item。二,传统做法,加入30个item三,分层处理,加入30个item1,代码:CommomScrollViewCDconst{ccclass,property}=cc._decorator;//绘画层classDraw{......
  • 封神级 Android 音视频开发学习路线
    前言在日常生活中,视频类应用占据了我们越来越多的时间,各大公司也纷纷杀入这个战场,不管是抖音、快手等短视频类型,虎牙、斗鱼等直播类型,腾讯视频、爱奇艺、优酷等长视频类型,还是Vue、美拍等视频编辑美颜类型,总有一款适合你。随着5G普及以及网络资费的下降,音视频的前景是非常广阔的。......
  • electron的渲染进程使用axios时被csp安全拦截的解决方案
    1、问题出现场景脚手架用的是electron-vite,渲染进程是vue3+pinia+vue-router,http请求是使用的axios,在发起请求时发现控制台报csp问题 2、原因分析csp其实就是跨域问题,不支持非同源的资源访问,以往开发普通的vue项目时因为有脚手架里的代理,所以不会出现这种......
  • 引领汽车营销新趋势,3DCAT实时云渲染助力汽车三维可视化
    当前,汽车产业发展正从电动化的上半场,向智能化的下半场迈进。除了车机技术体验的智能化之外,观车体验的智能化也不容忽视。这是因为,随着数字化、智能化、个性化的趋势,消费者对汽车的需求和期待也越来越高,他们希望能够通过多种渠道和方式,全方位、沉浸式地体验汽车的外观、内饰、性......
  • [转载]使用GoEasy在uniapp下实现实时音视频通话附关键代码
    GRTC(GoEasyReal-TimeCommunication)是GoEasy推出的新功能,用于协助开发者在uniapp下轻松实现一对一和多人场景下的实时音视频通话功能。集成步骤1.配置云厂商音视频服务GRTC功能依赖于云厂商的音视频服务,目前已集成七牛云音视频服务(每月免费5000分钟),并计划未来支持更多云厂......
  • 【浏览器】渲染机制
    要想理解浏览器的运行环境,我们先要搞明白一些计算机组件以及它们的作用。CPU它可以串行地一件接着一件处理交给它的任务。很久之前的时候大多数CPU只有一个核心,不过在现在的硬件设备上CPU通常会有多个核心,因为多核心CPU可以大大提高手机和电脑的运算能力。GPU图形处理器-或......
  • 官宣!DevExpress Blazor UI组件,支持全新的.NET 8渲染模式
    DevExpress BlazorUI组件使用了C#为BlazorServer和BlazorWebAssembly创建高影响力的用户体验,这个UI自建库提供了一套全面的原生BlazorUI组件(包括PivotGrid、调度程序、图表、数据编辑器和报表等)。.NET8为Blazor引入了令人兴奋的重大变化,统一了它的托管模型,并采用了服务器......
  • Unity3D 背包系统的渲染如何优化详解
    Unity3D背包系统是游戏中常见的一个功能,玩家可以在游戏中收集或购买各种道具,然后将其放入背包中进行管理。然而,当背包中的道具数量增加时,往往会导致游戏的性能下降,因为需要渲染大量的道具图标和信息。因此,如何优化背包系统的渲染成为了游戏开发中的一个重要问题。对啦!这里有个游......
  • [转载]使用GoEasy在uniapp下实现实时音视频通话附关键代码
    GRTC(GoEasyReal-TimeCommunication)是GoEasy推出的新功能,用于协助开发者在uniapp下轻松实现一对一和多人场景下的实时音视频通话功能。集成步骤1.配置云厂商音视频服务GRTC功能依赖于云厂商的音视频服务,目前已集成七牛云音视频服务(每月免费5000分钟),并计划未来支持更多云厂......