首页 > 其他分享 >PRETRAIN

PRETRAIN

时间:2023-06-02 19:23:42浏览次数:46  
标签:pipeline 尺度 PRETRAIN 模块 Hourglass hourglass

BACKBONE

前言

本篇博客记录常见backbone以及分类算法,具体如下:

  1. Hourglass

  2. resnet

  3. hrnet

Hourglass

hourglass module

Hourglass模块设计的初衷就是为了捕捉每个尺度下的信息,因为捕捉人脸,手这些部分的时候需要局部的特征,而最后对人体姿态进行预测的时候又需要整体的信息。为了捕获图片在多个尺度下的特征,通常的做法是使用多个pipeline分别单独处理不同尺度下的信息,然后在网络的后面部分再组合这些特征,而作者使用的方法就是用带有skip layers的单个pipeline来保存每个尺度下的空间信息。

中间监督

作者在整个网络结构中堆叠了许多hourglass模块,从而使得网络能够不断重复自底向上和自顶向下的过程,作者提到采用这种结构的关键是要使用中间监督来对每一个hourglass模块进行预测,即对中间的heatmaps计算损失。在上图中,每个hourglass模块后面跟着两个卷积核,来得到本模块的输出并作为下一个模块输入的一部分,下面分支将heatmap作为输出进行loss计算,再进行1x1卷积以匹配通道数。

标签:pipeline,尺度,PRETRAIN,模块,Hourglass,hourglass
From: https://www.cnblogs.com/xle97/p/17452736.html

相关文章

  • Fine-tuning Pretrained Network技术研究
    Fine-tuningPretrainedNetwork技术研究一、基本概念定义(1)数据域(domain)用D={χ,P(X)}表示,它包含两部分:特征空间χ和边缘概率分布P(X)其中X={x1,...xn}∈χ在文本分类任务中,把每一个单词看作二值的特征即出现或者不出现,所有检索词向量的空间就是χ,xi对应某一文本......
  • Fine-tuning Pretrained Network技术研究
    一、基本概念定义(1)数据域(domain)用D={χ,P(X)}表示,它包含两部分:特征空间χ和边缘概率分布P(X)其中X={x1,...xn}∈χ在文本分类任务中,把每一个单词看作二值的特征即出现或者不出现,所有检索词向量的空间就是χ,xi对应某一文本第i个词向量的值,X就是特定的学习样本。如果说两个数据域不同,......
  • 【论文解读】(拼音+字形+字三种信息的中文BERT)ChineseBERT: Chinese Pretraining Enhan
    文章目录1.相关信息2.论文内容3.论文模型3.1GlyphEmbedding3.2PinyinEmbedding4.实验与结论5.模型使用方式1.相关信息论文年份:2021论文地址:https://aclanthology.org/2021.acl-long.161.pdf论文代码(官方):https://github.com/ShannonAI/ChineseBertHuggingFace:Shan......
  • 【预训练语言模型】RoBERTa: A Robustly Optimized BERT Pretraining Approach
    ·阅读摘要:  本文在​​​BERT​​​模型的基础上进行了一些改进,提出了​​RoBERTa​​​模型,并证明了​​RoBERTa​​​比​​BERT​​​的效果更好一些。·参考文献:......
  • 【论文翻译】KLMo: Knowledge Graph Enhanced Pretrained Language Model with Fine-G
    KLMo:建模细粒度关系的知识图增强预训练语言模型(KLMo:KnowledgeGraphEnhancedPretrainedLanguageModelwithFine-GrainedRelationships)论文地址:https://aclant......
  • Huggingface:trainsformers的PreTrainedTokenizer类
    PreTrainedTokenizer类是所有分词类Tokenizer的基类,这个类不能够被实例化,所有的transformers中预训练模型的分词器(例如BertTokenizer,RoBertaTokenizer)等等都继承自PreT......