• 2024-08-28halcon的模板匹配
    halcon的三种模板匹配方法总结halcon有三种模板匹配方法:即Component-Based、Gray-Value-Based、Shaped_based,分别是基于组件(或成分、元素)的匹配,基于灰度值的匹配和基于形状的匹配,此外还有变形匹配和三维模型匹配也是分属于前面的大类本文只对形状匹配做简要说明和补充:Shape_Ba
  • 2024-08-07[Paper Reading] DEFORMABLE DETR: DEFORMABLE TRANSFORMERS FOR END-TO-END OBJECT DETECTION
    DEFORMABLEDETR:DEFORMABLETRANSFORMERSFOREND-TO-ENDOBJECTDETECTIONlink时间:2021(ICLR)机构:Sensetime&USTC&CUHKTL;DR参考2DDeformableConv,通过在ReferencePoint附近增加samplepoints,将DETR的收敛速度提升10倍,对于小目标效果也更好。Method背景知识:参考
  • 2024-06-07关于CoPE与Deformable attention的思考
    最近我在刷知乎的时候关注到了Meta的一个新工作CoPE(ContextualPositionEncoding,上下文位置编码),在了解了其中的核心理念和实现后,我不自觉地联想到了Deformableattention,然后尝试将两者的相似点进行了一点整理。为什么需要CoPE?在处理文本序列时,理解每个词的位置至关重要。例如,
  • 2024-06-06【YOLOv8改进】DAT(Deformable Attention):可变性注意力 (论文笔记+引入代码)
    YOLO目标检测创新改进与实战案例专栏专栏目录:YOLO有效改进系列及项目实战目录包含卷积,主干注意力,检测头等创新机制以及各种目标检测分割项目实战案例专栏链接:YOLO基础解析+创新改进+实战案例摘要Transformers最近在各种视觉任务中展现出了优越的性能。较大甚至是
  • 2024-01-30周报_第二十三周
    本周主要做的事情是找了最近几年发布的代码,大致看了一下网络结构以及实现,为下面替换做一个准备。运行成功了deformer-detr的代码,将抽取出deformableattention放到模型上面效果非常差,误差是之前的几倍。分析1.可能是代码的问题,有一些参数没有设置好。2.对于deformableattenti
  • 2023-12-18Scale-Prior Deformable Convolution for Exemplar-Guided Class-Agnostic Counting
    Scale-PriorDeformableConvolutionforExemplar-GuidedClass-AgnosticCounting初读印象comment::(计数用的一个网络)提出了一个标度优先的可变形卷积,将典范的信息,例如标度,整合到计数网络主干中。动机本文考虑的是类别无关的计数,其中计数模型预测由一组查询图像中的少数
  • 2023-12-18Deformable ConvNets V2: More Deformable, Better Results 可变形卷积v2
    DeformableConvNetsV2:MoreDeformable,BetterResults*Authors:[[XizhouZhu]],[[HanHu]],[[StephenLin]],[[JifengDai]]DOI:10.1109/CVPR.2019.00953初读印象comment::(可变形卷积v2)增加了可变形卷积的数量、调制因子和额外的用来特征模仿的网络。deformab