首页 > 其他分享 >三维模型,不要只说轻量化

三维模型,不要只说轻量化

时间:2024-09-20 23:21:05浏览次数:3  
标签:场景 LOD 模型 技术 三维 轻量化

一拿到三维模型,“各路神仙”都会要求先进行轻量化。但我发现很多人其实对轻量化的目的,及应用场景是没有概念的。因此本文以我自己数据处理的角度,来说说三维模型要加载到渲染平台,围绕轻量化方面,它该做什么,不该做什么。

1、三维模型为啥会卡

三维模型就是一个文件,文件大了自然卡。当然,三维引擎并不是把模型存放到内存就完事,它还需要渲染出来。在渲染侧,有实例化渲染、背面剔除、缓存交换等多种技术。因此要想把三维模型进行高效展示,不能盯着文件这一端。要从文件格式、文件组织、加载组织、渲染组织等多个流程来进行考虑。对了,还需要考虑三维模型处理成本。

2、轻量化的目的

如果是为了看个形状,那么轻量化是值得的。这里的轻量化包括三角网简化、删除小的构件、移除属性。这种场景包括宣传建筑成品、宣传城市风貌等。观众一般看个大的概念。另外很多三维展示平台操作并不是完美,很难进入室内或者构件细节去观察。因此轻量化技术是一种比较经济的手段。

但如果是面向精细化管理或者需要物理级、实体级分析的场景,比如工业制品,建筑室内设计、施工管理、地下设施养护,那么丢失精度就不合适了。因此针对这种应用场景,就要从模型加载策略——即LOD技术来进行考虑了。

3、LOD不是轻量化,它采用了轻量化技术

LOD也是一种技术,它可以不采用轻量化技术,比如我可以在远处给你呈现影像、照片,近处再给你看三维模型(百度、高德的地图三维也是这样的)。另外,LOD技术一般也伴随着瓦片(Tile)切片这个技术。轻量化技术一般用于构建低精度模型的一种技术策略。

有了LOD及切片技术,轻量化技术可以“天马行空”的使用。比如,我可以在最后一级(最高清级别)完完整整的展示所有信息。这时候视野小、可见数据量小。在这种情况下,用户提交的模型可以不用做(或者说不必做)任何处理。低精度数据也可以采用任意的轻量化技术,包括但不限于蒙皮(提取外壳)、点云重建。

4、并不是所有轻量化方法都需要给模型来一刀

现在很多招标说明书或用户需求都要求各类轻量化算法,比如图元合并、背立面移除、参数化重建。其实这些方法大多有应用场景。如果分不清楚应用场景,那么不仅折腾自己,而且还折腾模型。

比如图元合并算法(工具),其目的是把减少实体数量,因此算法一般会合并类似属性的实体(比如墙体)、或向上抽象实体(比如桌子和椅子合并成办公桌)。图元合并等于干掉细分实体,因此该功能要让用户交互选择哪些实体可以被合并。要承担合并后无法查询属性、简化失败(简化时没有选择【保留拓扑】)等风险。

还有一个比较悲观的情况是,一般BIM模型体量大并不是因为墙多,而是栏杆、门把手、消防栓、穿孔铝板等,这些带有异构特征的模型复杂。因此图元合并、背立面移除等等算法应用在这里模型上,就等于曹操剪了一撮头发,耗时耗力,到头来模型差异不大。

类似的,边坍塌算法等三角面简化算法并不是所有构件都合适,在某些特殊构件上,采用参数化重构、图形模拟等技术有时候更有效。

5、什么时候可以说“我要对模型单体化”

有些作者把文件格式进行了转变,就大幅提升了渲染效率,这是存在的。但应用场景应该仅限单个模型的浏览。如果是城市级三维模型的展示,那么非上多级LOD+切片服务不可,即必须转换为3D Tiles这样的瓦片服务。

在独立场景或小场景,希望一次性全量加载模型,不需要太多的分析,那么轻量化是可以作为必选项。现在有些平台限定用户查看单个模型的体量为15M,这个奔点还是需要的。

标签:场景,LOD,模型,技术,三维,轻量化
From: https://blog.csdn.net/htsitr2/article/details/142406501

相关文章

  • 0915,SOCKET网络编程部分,三种I/O多路复用模型(select ,poll,epoll)
    目录  nc127.0.0.1port01_socket_client.cc01_socket_server.cc02_select_client.cc02_select_server.cc03_poll_server.cc04_epoll_server.cc01_socket_client.cc#include<stdlib.h>#include<string.h>#include<sys/stat.h>#include<sy......
  • 基于 ollama 下载,部署AI 大模型 提供API 服务
    1.下载 ollama   https://ollama.com/   2.安装完成后,没有操作界面(只能CLI)3. 检测安装是否成功 ollama--version4.常用命令: ollamahelp修改默认模型下载位置:‌概述‌:Ollama默认将模型保存在‌C盘(‌Windows)、~/.ollama/models(‌MacOS)或/usr/share/ollama/.......
  • 数据动能聚变:数据飞轮与大模型共舞
    1.前言在当今的数字化时代,数据已成为企业发展的重要资产。然而,许多企业面临着“有数据,但不驱动”的困境,为什么企业花费大量资源建设数据中台却迟迟没有见到效果呢?即虽然拥有大量的数据资源,但却无法充分发挥其价值来推动业务增长,而数据飞轮和大模型的结合为解决这一困境提供了新......
  • 三维手势 handpose 3D RGB 手势3D建模 三维建模-手势舞 >> DataBall
    请关注即将发布 handposexplus项目三维手势handpose3DRGB单目相机手势识别手语歌曲Friends手势检测手势3D建模三维建模咨询合作DataBall项目,欢迎加以下微信。助力快速掌握数据集的信息和使用方式。......
  • GEN 自动生成 GORM 模型结构体文件及使用示例
    后端-GEN自动生成GORM模型结构体文件及使用示例-个人文章-SegmentFault思否背景GEN是一个基于GORM的安全ORM框架,由字节跳动无恒实验室与GORM作者联合研发,主要功能说白了就是帮助生成数据表对应的模型文件和更安全方便地执行SQL。直接使用GORM与GEN工具......
  • 为大模型提供服务需要多少 GPU 显存?
    在几乎所有的LLM面试中,有一个问题总是会被提及:“**为大模型提供服务需要多少GPU显存?**”这不仅仅是一个随机的问题——它是一个关键指标,反映了你对这些强大模型在生产环境中部署和可扩展性的理解程度。当你使用GPT、LLaMA或任何其他LLM时,了解如何估算所需的GPU内存是至......
  • LLM基础概念:大模型参数到底是什么?作用是什么?
        对于大模型及相关应用的测试同学来说,掌握大模型的参数概念及作用,以及调参非常重要,不然的话,在测试中面对模型的一顿输出,我们满脸的懵逼......
  • 读论文-使用潜在扩散模型进行高分辨率图像合成
    论文名称:High-ResolutionImageSynthesiswithLatentDiffusionModels论文地址:arxiv.org/pdf/2112.10752v2项目地址:GitHub-CompVis/stable-diffusion:Alatenttext-to-imagediffusionmodel        潜在扩散模型(LDMs)通过在预训练的自动编码器的潜在空间中应......
  • 【大语言模型(LLM)智能体】
    目录大语言模型智能体框架简介​智能体规划无反馈规划有反馈的规划内存工具大语言模型智能体的应用领域​编辑著名的大语言模型智能体大语言模型智能体工具​编辑大语言模型智能体的评估​编辑挑战参考资料大语言模型(LLM)智能体,是一种利用大语言模型进行复杂任......
  • 大模型时代的企业转型:RAG技术的进化与挑战
    从2023年起开始火爆的大语言模型(LargeLanguageModel,LLM),如GPT/Gemini/通义千问/GLM/文心一言/豆包等,经过了一年多的比拼和进化,已经几乎涵盖了所有通用性、常识性的知识和理解力; 与之同时,更多传统行业的企业也被吸引到大语言模型的生态中,探索新AI技术为企业带来实质性的变革。......