• 2024-02-06【iOS ARKit】人形提取
        为解决人形分离和深度估计问题,ARKit新增加了SegmentationBuffer(人体分隔缓冲区)和EstimatedDepthDataBuffer(深度估计缓冲区)两个缓冲区。人体分隔缓冲区作用类似于图形渲染管线中的StencilBuffer(模板缓冲区),用于区分人形区域与背景区域,它是一个像素级的缓冲区,用于
  • 2024-02-06【iOS ARKit】人形遮挡
    人形遮挡简介    在AR系统中,计算机通过对设备摄像头采集的图像进行视觉处理和组织,建立起实景空间,然后将生成的虚拟对象依据几何一致性原理嵌入到实景空间中,形成虚实融合的增强现实环境,再输出到显示系统中呈现给使用者。   正确实现虚拟物体与真实环境的遮挡关系,需
  • 2024-02-04【iOS ARKit】3D人体姿态估计实例
    ​   与2D人体姿态检测一样,在ARKit中,我们不必关心底层的人体骨骼关节点检测算法,也不必自己去调用这些算法,在运行使用ARBodyTrackingConfiguration配置的ARSession之后,基于摄像头图像的3D人体姿态估计任务也会启动,我们可以通过session(_session:ARSession,didUpdatea
  • 2024-02-04【iOS ARKit】3D 人体姿态估计
       与基于屏幕空间的2D人体姿态估计不同,3D人体姿态估计是尝试还原人体在三维世界中的形状与姿态,包括深度信息。绝大多数的现有3D人体姿态估计方法依赖2D人体姿态估计,通过获取2D人体姿态后再构建神经网络算法,实现从2D到3D人体姿态的映射。   在ARKit中,由于是采
  • 2024-02-02【iOS ARKit】2D肢体动作捕捉
       人体肢体动作捕捉在动漫影视制作、游戏CG动画、实时模型驱动中有着广泛的应用,利用ARKit,无须额外的硬件设备即可实现2D和3D人体一系列关节和骨骼的动态捕捉,由于移动AR的便携性及低成本,必将促进相关产业的发展。ARBodyTrackingConfiguration   ARKit配置类AR
  • 2024-01-31【iOS ARKit】环境反射
    环境反射  在使用iOSAR中渲染虚拟物体时,RealityKit默认使用了一个简单的天空盒(Skybox,即IBL环境资源贴图),所有带反射材质的物体默认会对天空盒产生反射。   但在AR中,使用IBL技术实现的天空盒反射有一个很大的问题,那就是不真实,因为天空盒由开发者在开发时设置,不能实
  • 2024-01-29【iOS ARKit】光照估计
    光照估计    AR与VR在光照上最大的不同在于VR世界是纯数字世界,有一套完整的数学模型,而AR则是将计算机生成的虚拟物体或关于真实物体的非几何信息叠加到真实世界的场景之上实现对真实世界的增强,融合了真实世界与数字世界。就光照而言,VR中的光照完全由开发人员决定,光照效
  • 2024-01-29iOS ARKit 光照效果之光源
    光照   在现实世界中,光扮演了极其重要的角色,没有光万物将失去色彩,没有光世界将一片漆黑。在3D数字世界中亦是如此,3D数字世界本质上是一个使用数学精确描述的真实世界复本,光照计算是影响这个数字世界可信度的极其重要的因素。光源   顾名思义,光源即是光的来源,常见
  • 2024-01-26【iOS ARKit】同时开启前后摄像头BlendShapes
       在上一节中已经了解了iOSARkit进行BlendShapes的基本操作,这一小节继续实践同时开启前后摄像头进行人脸捕捉和世界追踪。   iOS设备配备了前后两个摄像头,在运行AR应用时,需要选择使用哪个摄像头作为图像输人。最常见的AR体验使用设备后置摄像头进行世界跟踪、
  • 2024-01-26【iOS ARKit】BlendShapes
    ​BlendShapes基础介绍   利用前置摄像头采集到的用户面部表情特征,ARKit提供了一种更加抽象的表示面部表情的方式,这种表示方式叫作BlendShapes,BlendShapes可以翻译成形状融合,在3dsMax中也叫变形器,这个概念原本用于描述通过参数控制模型网格的位移,苹果公司借用了这
  • 2024-01-25iOS ARKit --人脸跟踪之挂载虚拟元素
    ​    人脸跟踪(FaceTracking)是指将人脸检测扩展到视频序列,跟踪同一张人脸在视频序列中的位置。是论上讲,任何出现在视频中的人险都可以被跟踪,也即是说,在连续视频帧中检测到的人脸可以被识别为同一个人。人脸跟踪不是人脸识别的一种形式,它是根据视频序列中人脸的位置和运
  • 2024-01-25iOS ARKit--人脸检测追踪基础
        在计算机人工智能(ArtificialInteligence,AI)物体检测识别领域,最先研究的是人脸检测识别,目前技术发展最成熟的也是人脸检测识别。人脸检测识别已经广泛应用于安防、机场、车站、闸机、人流控制、安全支付等众多社会领域,也广泛应用于直播特效、美颜、Animoji等娱乐领域。
  • 2024-01-22ARKit 图像检测
    2D图像检测跟踪  图像跟踪技术,是指通过图像处理技术对摄像机中拍摄到的2D图像进行检测、识别、定位,并对其姿态进行跟踪的技术。图像跟踪技术的基础是图像识别,图像识别是指检测和识别出数字图像或视频中的对象或特征的技术,图像识别技术是信息时代的一门重要技术,其产生的目
  • 2024-01-18iOS ARKit 动画
    动画是增强虛拟元素真实感和生动性的重要方面,RealityKit支持变換动面(TransformAnimation)和骨骼动画(SkeletalAnimation)两种动面模式。变换动画一般程序化地执行,支持基本的平移、旋转、缩放,更复杂的动画通常由第三方模型制作软件采用骨骼绑定的方式生成,独立或者内置于模型文件中
  • 2024-01-16iOS ARKit 中的手势检测
       智能移动设备的手势操作是使用者接受并已习惯的操作方式,在移动端AR应用中,对虚拟物体的操竹也基本通过手势操作完成,需要注意的是,本次所讲中手势检源是指用户在手机屏幕上的手指操作检测,不是指利用图像技术对使用者手部运动的检测。  手势检测是指通过检测使用者在手
  • 2024-01-16iOS ARKit 中的射线检测
    射线检测简介    射线检测 Raycasting,直译为射线投射,通常我们根据它的作用称为射线检测。射线检测是在3D数字世界选择某个特定物体常用的一种技术,如在3D、VR游戏中检测子弹命中敌人情况或者从地上捡起一支枪,这都要用到射线检测,射线检测是在3D数字空间中选择虚拟物体
  • 2024-01-16iOS ARKit 三大类 ARSession ARAnchor ARFrame
    ARSessionARSession(AR会话)是ARKit中最重要的概念之一,其主要的功能是管理AR应用的状态和整个周期,是ARKitAPI的主要人口。ARSession整合了底层的所有技术并为开发者提供程序界面,这些技术包括从设备运动传感器硬件取数据、捕获摄像头图像数据并进行分析、控制虛拟场景摄像机与硬
  • 2024-01-16iOS ARKit 三大基础能力
    ARKit三大基础能力   ARKit整合了SLAM、计算机视觉、机器学习、传感器融合、表面估计、光学校准、特征匹配、非线性优化等大量低层技术,提供给开发者简洁易用的程序界面。ARKit提供的功能总体可以分为3个部分:运动跟踪、场景理解、渲染,1.运动跟踪运动跟踪可以实时跟
  • 2024-01-15iOS ARKit 显示引导示图、添加正方体
    ARKit概述2017年,在WWDC(WorldWideDevelopersConference,苹果全球开发者大会)上,苹果公司了增强现实开发套件ARKit。ARKit一推出即在科技圈引发极大关注,一方面是苹果公司在科技影响力,另一方面更重要的是ARKit在秘动端实现的堪称惊艳的AR效果。ARKit的面世,直接术带到了亿万用