768
  • 2024-12-16vue3/elementplus表格顶部固定高度计算
    1.表格标签<el-table:data="costList"border:height="tableHeight">2.具体实现consttableHeight=ref(500);constsettingsStore=useSettingsStore();//此方法精确计算表格高度,固定表格顶部用constcalculateTableHeight=()=>{constwindowH
  • 2024-11-24OSTrack:Joint Feature Learning and Relation Modeling for Tracking: A One-Stream Framework
    Abstract问题:传统的双流跟踪框架对目标提取的特征不够具体。特征提取和关系建模是分开进行的,导致算法在区分目标和背景方面的能力有限。两流、两阶段框架容易受到性能-速度困境的影响。解决:提出一种新的单流跟踪框架,OSTrack通过桥接具有双向信息流的模板搜索图像来统一特
  • 2024-11-24Vision Transformer(VIT模型)
    【11.1VisionTransformer(vit)网络详解-哔哩哔哩】https://b23.tv/BgsYImJ工作流程:①将输入的图像进行patch的划分②LinearProjectionofFlattedpatches,将patch拉平并进行线性映射生成token③生成CLStoken(用向量有效地表示整个输入图像的特征)特殊字符“*”,生成Pos
  • 2024-12-11光学零件涂墨--【光学加工】
    前言与目录介绍光学零件加工过程中的光学零件涂墨,详细介绍光学零件涂墨的技术要求、工艺流程和质量控制方法,对光学涂墨这一流程进行解析总结!目录一、涂墨的目的二、涂墨的范围三、涂墨的工艺四、涂墨的种类五、涂墨的工具、设备六、涂墨方式1、机涂作业2、喷涂作业
  • 2024-12-04阿里:LLM自我拓展的迭代训练框架
  • 2024-11-25算法沉淀三:二分查找
    目录二分介绍 题目练习1.二分查找2.在排序数组中查找元素的第一个和最后一个位置3.搜索插入位置4.x的平方根5.山峰数组的峰顶6.寻找峰值7.搜索旋转排序数组中的最小值8.0~n-1中缺失的数字《剑指Offer53》 二分介绍 什么是二分查找?二分查找(BinarySearch),也
  • 2024-09-10第5讲:Halcon 测量点线距离
    一、概述    点线距离测量在3D测量项目中处于基础地位,必须要掌握。以下为可直接运行的代码。二、效果        三、Halcon代码*初始化窗口dev_update_off()dev_close_window()dev_open_window(0,0,768,512,'black',WindowHandle)*给点的大小
  • 2024-07-30GPT1-3及BERT的模型概述
    GPT1-3及BERT的模型概述(2020年5月之前LLMs主流模型)GPT-1(2018年6月)
  • 2024-07-20ViT(论文解读):An Image is worth 16*16 words
    研究问题虽然transformer已经成为NLP领域的标准(BERT、GPT3、T5),但是在CV领域很有限。在CV中,自注意力要么和CNN一起用,要么替换CNN中某个组件后保持整体结构不变。本文证明了对CNN的这种依赖并不必要,在图像分类中,纯VisionTransformer直接作用于一系列图像块也可以取得不错的成果
  • 2024-06-30transformer在图像分类上的应用以及pytorch代码实现_transformer 图片分类
    本文简单介绍transformers的原理,主要介绍transformers如何应用在图像分类上的任务。1.对transformers的简单介绍transformers在自然语言处理领域有着天然的优势,transformers改进了RNN(循环神经网络)训练慢,不能够建立序列之间的长期依赖,记忆消失的缺点。transformers的核心
  • 2024-06-17yolov5训练日志
       (wind_2021)J:\PytorchProject\yolov5_train_pest_2024061501>(wind_2021)J:\PytorchProject\yolov5_train_pest_2024061501>(wind_2021)J:\PytorchProject\yolov5_train_pest_2024061501>pythontrain_20230320.py--img-size640--batch-size2
  • 2024-06-06yolov5训练日志
      (wind_2021)J:\PytorchProject\yolov5_train_car_2024060501>(wind_2021)J:\PytorchProject\yolov5_train_car_2024060501>pythontrain_20230320.py--img-size640--batch-size2--epochs300--data./data/myvoc.yaml--cfg./models/yolov5m.yaml--
  • 2024-04-17解决加载GPT2(Tensorflow预训练模型)的Linear权重到PyTorch的Linear权重 形状不匹配(互为转置)问题
    解决报错内容:RuntimeError:Error(s)inloadingstate_dictforPyTorchBasedGPT2:sizemismatchfortransformer.h.0.attn.c_attn.weight:copyingaparamwithshapetorch.Size([768,2304])fromcheckpoint,theshapeincurrentmodelistorch.Size([2304,768])...
  • 2024-04-17一张图看懂BERT
    https://zhuanlan.zhihu.com/p/500807675   一张图看懂BERT ​1前言关于BERT模型的原理讲解实在太多了,学习路径主要是理解两篇论文:1)理解Transformer模型,BERT模型的主要结构就是Transformer模型的Encoder部分。论文传送门:Atten
  • 2024-03-23【论文精读】VIT:vision transformer论文
    相关文章【论文精读】Transformer:AttentionIsAllYouNeed文章目录相关文章一、文章概览(一)研究背景(二)核心思路(三)相关工作(三)文章结论二、模型细节(一)组成模块(二)模型的大体流程(三)具体的模型的前向过程(四)transformerencoder的公式表达(五)消融实验1、关于图像分类编码方
  • 2024-03-19【GPT概念01】生成式预训练转换器
    一、说明        本文对GPT有所描述,主要解释了GPT的重要环节:only解码器。以及这个过程中,原始数据的维度演进、变化过程。对于想知道GPT内结构的朋友能有一定帮助。二、唯一解码器模型入门—因果语言建模     
  • 2024-01-22SO-VITS-SVC使用
    https://zhuanlan.zhihu.com/p/630115251?utm_id=0https://www.bilibili.com/read/cv22206231/ python版本,3.10开个python虚拟环境python-mvenv升级pip,否则会报错用pipinstall-rrequirements.txt按照依赖打开webUI,pythonwebUI.py下载孙燕姿的模型,模型文件,.pt配
  • 2023-12-29VIT Vision Transformer
    VITVisionTransformer目录VITVisionTransformerViT模型结构图像划分PatchLinearProjectionofFlattedPatchesPatch+PositionEmbedding分类向量和位置向量EncoderMLPHead(全连接头)VIT模型参数对比ViT思考DETR为什么处理成patch部分模块改进思路参考资料论文地址:https:
  • 2023-10-23pytorch(10.5) Transformer 用到视觉模块
    ViT|VisionTransformer|理论+代码_哔哩哔哩_bilibili   1不用卷积神经网络那些东西(CNN)了全部用Transforme 。2大规模数据训练,小规模数据应用。3效果相当计算训练资源更少。 转换思想224*224像素图像-单个像素(视为一个词token)-16*16个像素图像块patches(
  • 2023-08-24DistilBertModel模型的简单解释
    DistilBertModel((embeddings):Embeddings((word_embeddings):Embedding(30522,768,padding_idx=0)(position_embeddings):Embedding(512,768)(LayerNorm):LayerNorm((768,),eps=1e-12,elementwise_affine=True)(dropout):Dropout(p=0.1,in
  • 2023-07-07我用numpy实现了GPT-2,GPT-2源码,GPT-2模型加速推理,并且可以在树莓派上运行,读了不少hungging face源码,手动实现了numpy的GPT2模型
     之前分别用numpy实现了mlp,cnn,lstm和bert模型,这周顺带搞一下GPT-2,纯numpy实现,最重要的是可在树莓派上或其他不能安装pytorch的板子上运行,生成数据gpt-2的mask-multi-headed-self-attention我现在才彻底的明白它是真的牛逼,比bert的multi-headed-self-attention牛的不是一点半点,
  • 2023-06-30使用numpy实现bert模型,使用hugging face 或pytorch训练模型,保存参数为numpy格式,然后使用numpy加载模型推理,可在树莓派上运行
     之前分别用numpy实现了mlp,cnn,lstm,这次搞一个大一点的模型bert,纯numpy实现,最重要的是可在树莓派上或其他不能安装pytorch的板子上运行,推理数据本次模型是随便在huggingface上找的一个新闻评论的模型,7分类看这些模型参数,这并不重要,模型占硬盘空间都要400+Mbert.embeddings.w
  • 2023-05-10https安全协议C#
    ServicePointManager.SecurityProtocol=(SecurityProtocolType)48|(SecurityProtocolType)192|(SecurityProtocolType)768|(SecurityProtocolType)3072;ServicePointManager.Expect100Continue=true;ServicePointManager.ServerCertificat
  • 2023-05-08bert中mask
     bert中n(seq_len)默认是512,通过padding,head_size=64hidden_size=768默认计算方式是hidden_size/heads(12) =64,输入为seq_len(句子长度)*batch(句子个数)*embedingsize (44条消息)BERT原理和结构详解_bert结构______miss的博客-CSDN博客在BERT小模型中,每个head
  • 2023-04-30Android主流屏幕分辨率介绍
    对于Android游戏开发我们不得不像iPhone那样思考兼容Android平板电脑,苹果要考虑iPad、iPhone3GS和iPhone4等屏幕之间的兼容性,对于开发Android游戏而言也不例外,考虑的机型更多。常规的我们可能只考虑QVGA,HVGA,WVGA,FWVGA和DVGA,但是抛去了手机不谈,可能平板使用类似WSVGA的1024