首页 > 其他分享 >Cost Aggregation with Transformers for Sparse Correspondence-读书笔记

Cost Aggregation with Transformers for Sparse Correspondence-读书笔记

时间:2023-11-13 23:25:43浏览次数:36  
标签:Correspondence 分数 聚合 填充 读书笔记 SuperGlue 矩阵 匹配 Transformers

Cost Aggregation with Transformers for Sparse Correspondence:2022

背景:

该论文结合了SuperGlue和CATs,将里面所有手工制作的部分都代替了。将CATs引入该模型,用Transformer取代手工制作的成本聚合方法,用于具有自关注层全局接受域的可学习成本聚合。(PS:成本聚合: 成本聚合是指在立体匹配等任务中,对计算得到的匹配成本进行整合,以减小误差、噪声和不一致性。成本聚合的目标是在每个像素位置上选择合适的匹配,同时考虑相邻像素之间的一致性。这有助于提高深度图或光流场的准确性。成本聚合通常涉及计算聚合代价(Cost Aggregation Cost)并应用某种滤波或聚合函数。)

具体方法(只讲述与SuperGlue不同的地方):

 

上图是总体框架,可以看出注意图神经网络并没有改进,所以主要讲述后面的分数预测(加入成本聚合)部分。

分数预测:

Sij矩阵的获得与SuperGlue获得方法相同。

得到Sij矩阵后,将其输入到上图的网络中,因为transformer aggregator由于位置嵌入而期望采用固定大小的输入,但是Sij矩阵由于不同的图像提取的关键点数量不同而尺寸不固定。所以将S填充到K×K的固定形状中,S中的填充区域指的是完全不匹配的配对。我们使用一个填充值p,该值为 S 的最小值的负值,以便Transformer能够意识到填充区域的上下文含义,并成功地优化分数矩阵。

在初始实验中,作者考虑过零填充,但这是不可行的,因为在分数图的分布中,零是具有意义的,会对后续操作产生影响。在填充过程中,同时存储填充区域的索引数组,这将在后续过程中用于注意力掩码。

Transformer Aggregator:

对比CATs中的方法,该论文去除了外观关联,因为它不容易与框架中的填充兼容,并且使分数矩阵很大,在某些稀疏对应的情况下可能会导致内存问题。且该论文忽略了维度关系,因为输入的分数矩阵就是一维的,并不像CATs的输入,是不同层的特征图上采样拼接后的结果。

在Transformer中的自注意机制中,使用注意力掩码(attention masking)来最小化Softmax操作中填充区域的影响,让填充区域对Softmax没有影响。这就使用了上述存储的索引数组,有索引数组的地方尽量使Softmax后的结果趋向于0。

Swapping Self-Attention:

 

为了使得匹配分数矩阵对输入图像的顺序不敏感,并施加一致的匹配分数,应该使用互为倒数的分数作为辅助来推断可信的对应关系。首先将填充的匹配分数矩阵输入第一个Transformer聚合器。然后,对输出和掩码进行转置,并将其输入到后一个聚合器。其中,共享两个Transformer聚合器的参数,以获得互为倒数的分数。在每一步中,都使用残差连接来稳定学习过程并为匹配提供更好的初始化。(由图可以观察出)

这个步骤的主要目的是通过应用自注意力机制,利用双向的匹配分数信息,获得更一致和可靠的对应关系。

归一化与损失函数与SuperGlue相同。

训练过程:

为了训练网络,提出了一个两阶段的训练方案。

1)首先在不使用 transformer aggregator 的情况下对注意图神经网络进行训练;

2)在确定注意图神经网络参数的同时对整个网络进行训练。为了公平的比较,我们让SuperGlue和SuperCATs在注意图神经网络中共享相同的权重。

实验结果:提高了SuperGlue的匹配精度。

注意:成本聚合的目标是在每个像素位置上选择合适的匹配,同时考虑相邻像素之间的一致性。所以CATs方法实际是对密集匹配方法进行研究。但本论文去除了CATs的一些因素,使其适应于稀疏匹配。

标签:Correspondence,分数,聚合,填充,读书笔记,SuperGlue,矩阵,匹配,Transformers
From: https://www.cnblogs.com/ZYX--/p/17830565.html

相关文章

  • A Learning Method for Feature Correspondence with Outliers读书笔记
    ALearningMethodforFeatureCorrespondence withOutliers------2022年论文地址:ALearningMethodforFeatureCorrespondencewithOutliers|IEEEConferencePublication|IEEEXplore背景:SuperGlue在许多现实任务中取得了优异的性能,但在处理离群特征方面仍然存在问......
  • 《软件工程:一种实践方法》读书笔记一
    它把作为一本书按惯例该讲的历史部分形式一下就一段话带过,但是其中一个来自《人月传说》的形象的比喻深深吸引了我的眼球:“……正像一只逃亡的野兽落到泥潭中做垂死的挣扎,越是挣扎,陷得越深,最后无法逃脱灭顶的灾难。……程序设计工作正像这样一个泥潭,……一批批程序员被迫在泥潭中......
  • 梦断代码 读书笔记 02
    工程师和艺术家软件开发者是工程师还是艺术家。这个问题,总结了软件开发过程中无数细节问题,这些问题统统没有答案。软件开发领域的圣战比宗教中的还要多。从项目管理到软件设计,只有模糊的建议,以经验性方法为主导,估算工期的方法叫“拍”:一拍脑袋有了,一拍胸口干了,一拍大腿坏了,一拍......
  • 《流畅的Python》 读书笔记 第7章_函数装饰器和闭包
    第7章函数装饰器和闭包装饰器这个名称可能更适合在编译器领域使用,因为它会遍历并注解句法树函数装饰器用于在源码中“标记”函数,以某种方式增强函数的行为。这是一项强大的功能,但是若想掌握,必须理解闭包如果你想自己实现函数装饰器,那就必须了解闭包的方方面面,因此也就需......
  • 大道至简读书笔记11月
    《大道至简》第二章是一次意义深远的思想探索,它进一步深化了我们对大道至简哲学的理解。本章主要讨论了行动与实践在大道至简中的重要性,给予了我许多启示和思考。首先,作者强调了行动的力量。我们不能仅仅停留在思考和理论层面,而是要将思想转化为行动,用实践去验证真理。只有通过实......
  • 大道至简读书笔记10月
    在阅读《大道至简》的第一章之后,我深感震撼和启发。作者以简洁明晰的语言,展示了大道至简的哲学思想,传达了一种深邃而卓越的智慧。首先,本章着重强调了简洁的重要性。作者指出,在这个信息爆炸的时代,人们往往被琐事所困扰,无法专注于自己真正关心的事物。大道至简的思想告诉我们,要学会......
  • 11.8读书笔记《需求掌握过程》02
    所谓需求,就是那些必须在开始进行产品构建前发现的东西,如果在构建的过程中才发现需求,或者更晚更糟,直至客户已经在使用产品的时候才发现需求,那么代价将会是很大的,效率也将十分低下。《掌握需求过程》这本书中,讲述了身为一个需求分析师,应完成的几个工作内容。按书中所说,分析师即......
  • 论文阅读:Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point M
    Point-BERT:Pre-training3DPointCloudTransformerswith MaskedPointModelingPoint-BERT:基于掩码建模的点云自注意力模型预训练摘要我们提出了Point-BERT,一个学习自注意力的新范式,将BERT[8]的概念推广到三维点云。受BERT的启发,我们设计了一个掩蔽点建模(MPM)任务来预训练点云......
  • 2023CVPR_Efficient Frequency Domain-based Transformers for High-Quality Image De
    一.Motivation1.Transformer在解决全局表现很好,但是复杂度很高,主要体现在QK的乘积:(Wenotethatthescaleddot-productattentioncomputationisactuallytoestimatethecorrelationofonetokenfromthequeryandallthetokensfromthekey)在self-attention中......
  • 读书笔记——《软件需求模式》其一
    《软件需求模式》是StephenWithall撰写的一本重要著作,旨在探讨和提供关于软件需求工程的模式和技术。本书深入剖析了软件需求工程的各个方面,并通过引入一系列软件需求模式,为软件开发人员提供了解决常见问题和挑战的实用解决方案。作者首先强调了需求工程的重要性,指出清晰、准确......