首页 > 其他分享 >position的relative和absolute定位原点是哪里?

position的relative和absolute定位原点是哪里?

时间:2025-01-16 09:46:34浏览次数:1  
标签:定位 原点 元素 relative position absolute

在前端开发中,position属性的relativeabsolute定位原点有所不同。以下是关于这两者定位原点的详细解释:

1. position: relative;(相对定位)

  • 定位原点:相对定位的元素是相对于它原来在文档流中的位置进行偏移的。也就是说,它的定位原点是元素自身原来的位置。
  • 特点:相对定位的元素仍然保留原先的空间,即它虽然移动了,但在文档流中仍然占据原来的位置。其他元素不会根据相对定位的元素进行调整。

2. position: absolute;(绝对定位)

  • 定位原点:绝对定位的元素是相对于它最近的已定位祖先元素(即position属性值不为static的元素)进行定位的。如果没有已定位的祖先元素,那么它会相对于文档的<html>元素(也就是浏览器窗口)进行定位。
  • 特点:绝对定位的元素会脱离文档流,不再占据原来的位置,其他元素会根据它进行调整。这意味着绝对定位的元素不会影响其他元素的布局,同时其位置也不受其他元素的影响。

总结

  • 相对定位position: relative;的定位原点是元素自身原来的位置,偏移后仍保留原空间。
  • 绝对定位position: absolute;的定位原点是最近的已定位祖先元素或<html>元素,脱离文档流。

在实际应用中,通常会结合使用这两种定位方式来实现复杂的布局效果。例如,可以通过给父元素设置position: relative;,然后给子元素设置position: absolute;来实现子元素相对于父元素的绝对定位。

标签:定位,原点,元素,relative,position,absolute
From: https://www.cnblogs.com/ai888/p/18674276

相关文章

  • Proj CJI Paper Reading: AdaPPA: Adaptive Position Pre-Fill Jailbreak Attack Appr
    AbstractBackground:目前的jailbreakmutator方式更集中在语义level,更容易被防御措施检查到本文:AdaPPA(AdaptivePositionPre-FilledJailbreakAttack)Task:adaptivepositionpre-filljailbreakattackapproachMethod:利用模型的instructionfollowing能力,先输出p......
  • 《鸿蒙开发-答案之书》RelativeContainer不好理解?
    《鸿蒙开发-答案之书》RelativeContainer不好理解?RelativeContainer关键是锚点,子组件要放那里?就比如我拿起这个子组件,它的右边要和父组件右边对齐。那我锚点就右边,然后去锚父组件的右。代码如下:RelativeContainer(){Text('123').width(30)......
  • Composition API与Options API的区别
    CompositionAPI相比OptionsAPI的优点主要体现在代码的灵活性、可重用性、逻辑组织等方面,尤其是在大型项目或复杂组件中更为显著。1.更好的逻辑组织在OptionsAPI中,组件的不同逻辑通常分散在data、computed、methods、mounted等不同选项中。当组件逻辑复杂或包含多个功......
  • Vue3 Composition API使用错误
    Vue3CompositionAPI使用错误详解引言随着Vue3的发布,CompositionAPI作为其核心特性之一,受到了广泛关注和应用。相比于Vue2中的选项式API(OptionsAPI),CompositionAPI提供了更高的灵活性和代码复用性,尤其适用于大型复杂项目的开发。然而,新的API也带来了一些学习曲线和......
  • Recursive Decomposition of Logical Thoughts: Framework for Superior Reasoning an
    题目逻辑思维的递归分解:大型语言模型中高级推理和知识传播的框架论文地址:https://arxiv.org/abs/2501.02026摘要    增强大型语言模型的推理能力仍然是人工智能领域的一大挑战。我们引入了RDoLT(逻辑思维递归分解)提示,这是一个显著提高LLM推理性能的新颖框架。RD......
  • Confidence v.s. Critique: A Decomposition of Self-Correction Capability for LLMs
    题目信心v.s.批判:LLM自我修正能力的分解论文地址:https://arxiv.org/abs/2412.19513项目地址:https://github.com/Zhe-Young/SelfCorrectDecompose摘要    大型语言模型(LLM)可以纠正其自生成的响应,但自纠正后的准确性也有所下降。为了对自我纠错有更深入的理解......
  • 【NLP高频面题 - Transformer篇】Position encoding为什么选择相加而不是拼接呢?
    **【NLP高频面题-Transformer篇】Positionencoding为什么选择相加而不是拼接呢?**重要性:★首先明确:Transformer会对原始输入做嵌入(embedding),从而映射到需要的维度,可采用一个变换矩阵做矩阵乘积的方式来实现,Transformer中的positionembedding也是加在这个嵌入后......
  • 从位置到语境:解码 Contextual Position Encoding 的奥秘
    在自然语言处理(NLP)领域,Transformer模型已经成为了无可争议的主角。然而,尽管它们在许多任务中表现优异,却始终面临一个关键问题:如何有效地编码序列中的位置信息。传统的绝对位置编码(AbsolutePositionEncoding)和相对位置编码(RelativePositionEncoding)方法虽然解决了部分问......
  • 用Python处理Relative illumination的计算方法
    一、计算步骤1.选择一张亮态的图片2.减去OB3.计算刀口100*100区域大小的intensity4.按要求计算与中心的比值二、上部分代码##区域选择defselect_region(image,y,x,region_size=100):#定义100x100区域的边界start_x=max(x-region_size//2,0)#确保不超出......
  • 深度解析 Transformer 模型中的位置嵌入(Positional Embedding)
    在上一篇中,我们探讨了词嵌入(WordEmbedding),它根据词嵌入矩阵将文本序列转换为数值向量,使得计算机能够理解和处理自然语言。现在,让我们进一步了解位置嵌入(PositionalEmbedding),这是让Transformer模型“知晓”词语顺序的关键。1.位置嵌入的作用想象一下,如果我们只用词嵌入,那......