首页 > 其他分享 >Games101-2 transform

Games101-2 transform

时间:2024-05-17 20:07:55浏览次数:19  
标签:point 变换 投影 transform --- -- Games101

  • 2D point = $(x,y,1)^T$
  • 2D vector = $(x,y,0)^T$ --- 平移不变性

600

transform

translation

600

Affine transformner

600

600

逆变换

就是逆矩阵

变换的组合

矩阵的乘法

变换的分解

  • 变换到中心
  • 旋转
  • 变换回原始位置

三维

600

600

3D 旋转

600

view transformation

  • model transform
  • view transform
  • projection transform

600

关键特征:

  • 如果相机和物体同时移动,则 效果相同
  • 约定
    • 相机永远在原点
    • 看向 -z
    • Y轴为向上方向

600

Model --- $M_{view}$ --- 将相机移动到原点

600

600

先求逆的旋转 再求逆变换。

投影

从三维到二维

两种投影

  • 正交投影

  • 透视投影 -- 近大远小

  • 约定

    • 人在画面的 z方向,面向 -z

正交投影

600

600
600

透视投影

  • 平行的线不再平行

600

600

600

600

z点的变换

  • any point on the near plane will not change
  • any point's z on the far plane will not change

600

600

600

fov -- 可视角度 -- 分x和y

600

标签:point,变换,投影,transform,---,--,Games101
From: https://www.cnblogs.com/bigsharker/p/18198493

相关文章

  • Games101-9 advanced rendering
    PhysicallyBasedRendering:FromTheorytoImplementation(pbr-book.org)advancedlighttransport有/无偏的光线传播方法双向路径追踪这里主要的光照为间接光---不是直接光源---实现比较困难。使用马尔科夫链进行推测。优势:对于光线复杂的情况来水,比较好......
  • unity transform and gameobj
    两者都可以直接创建gameobj两者之间不能相互转换两者可以通过属性得到对方transform.gameobjgameobj.transformInsatance实例化的时候,两者返回对应的属性如果经常改变transformer,就用transformer,如果常用setActivate这些方法则使用gameobj进行实例化......
  • Games101-4 antialiasing and z-buffer
    利用中心对三角形进行采样antialiasing反走样samplingartifact--图形学中一切不好的东西空间,时间采样问题---信号的速度快导致采样跟不上如何做:在采样之前进行模糊/滤波,然后进行采样--不能反过来正弦和余弦滤波--好处:参数不同频率不同---每隔多少就重复一次......
  • Transformer中的layer norm(包含代码解释)
    https://blog.csdn.net/weixin_42596778/article/details/134848578 layerNorm的代码实现:importtorch#1.使用torch的layernorm来进行操作,然后看一下ln后的矩阵是什么样子#创建了一个2*3*4的随机矩阵batch_size,seq_size,dim=2,3,4embedding=torch.randn(bat......
  • Transformers 加速的一些常用技巧
    前言 本文介绍了一些Transformers常用的加速策略。本文转载自DeephubImba仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。CV方向的准研究生们,未来三年如何度过?招聘高光谱图像、语义分割、di......
  • [Paper Reading] PETR: Position Embedding Transformation for Multi-View 3D Object
    PETR:PositionEmbeddingTransformationforMulti-View3DObjectDetectionPETR:PositionEmbeddingTransformationforMulti-View3DObjectDetection时间:22.07机构:MegviiTL;DR一种多目3D目标检测的方法,主体思想是将3D坐标信息编码到2D图像特征,产生3Dawaredfeatur......
  • LSTM卷土重来!xLSTM:一举超越Mamba、Transformer!
    前言 LSTM:这次重生,我要夺回Transformer拿走的一切。本文转载自新智元仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。CV方向的准研究生们,未来三年如何度过?招聘高光谱图像、语义分割、diffu......
  • 绝对定位(absolute)居中问题:transform: translate(-50%);
     transform:translate(-50%); translate(50%)相当于translateX(50%),表示沿X轴方向平移元素自身宽度的50%。 绝对定位是最常见的问题是难以居中,所以可以改变元素的中心,来达到居中的效果position:absolute;left:50%;transform:translate(-50%); exposit......
  • 万事通,专精部分领域的多功能 Transformer 智能体
    介绍我们很高兴分享“万事通”(JackofAllTrades,简称JAT)项目,该项目旨在朝着通用智能体的方向发展。该项目最初是作为对Gato(Reed等,2022年)工作的公开复现启动的,Gato提出训练一种能够执行视觉与语言以及决策任务的Transformer。于是我们首先构建了Gato数据集的开放......
  • Transformers 加速的一些常用技巧
    Transformers是一个强大的架构,但模型因其采用的自注意力机制,虽然能够有效地处理序列数据并捕获长距离依赖关系,但同时也容易导致在训练过程中出现OOM(OutofMemory,内存不足)或者达到GPU的运行时限制。主要是因为参数数量庞大:Transformer模型通常包含大量的参数,尤其是在模型层面......