• 2024-11-09EMCAD: Efficient Multi-scale Convolutional Attention Decoding for Medical Image Segmentation-LAGA
    论文代码`importtorchimporttorch.nnasnnfromfunctoolsimportpartialfromtorch.nn.initimporttrunc_normal_importmathfromtimm.models.helpersimportnamed_applydefact_layer(act,inplace=False,neg_slope=0.2,n_prelu=1):#activationlayeract=
  • 2024-10-30HyperWorks中的Size and bias 子面板
    此面板是automesh经常使用的子面板,通过此面板,用户可用设置单元尺寸、单元类型以及以及映射类型等多种控制选项,然后通过预览按钮查看待生成网格模型的状态。 图3-6sizeandbias子面板 1.Density(密度)Adjust–在曲边节点数值位置点击鼠标左键增加节点数量,点击鼠标右键
  • 2024-10-27神经网络中的偏置(bias)究竟有什么用
    神经网络中的偏置(bias)起着至关重要的作用,主要体现在以下几个方面:一、提高模型的表达力;二、增加模型的灵活性;三、保证激活函数工作在非线性区域;四、防止模型过拟合。神经网络的偏置参数可以增加模型的表达力。简单地说,偏置可以看作是一个模型可以调整的“阈值”。一、提高模型
  • 2024-10-21使用pdb进行detr3d代码走读(一)
    花了一天在新pc上调通了mmdetection3d和detr3d的代码环境_mmdetectiondetr3d-CSDN博客书接上文结合bashtools/dist_test.shprojects/DETR3D/configs/detr3d_r101_gridmask.py~/Downloads/detr3d_r101_gridmask.pth1入口应该是然后打断点进去阅读一下:进入main函数之
  • 2024-10-09RT-DETR改进|爆改模型|涨点|使用VMamba作为骨干网络(附代码+修改教程)
    一、文本介绍本文修改的模型是RT-DETR,在原本的RT-DETR中,使用ResNet作为骨干网络,本文使用最新的VMamba(VisualStateSpaceModel)替换ResNet作为RT-DETR的骨干网络。VMamba是一种全新的视觉框架,VMamba结合了CNNs和ViTs的优势,同时优化了计算效率,能够在保持全局感受野的情况下实
  • 2024-09-22加餐-nanoGPT-learning
    Model"""FulldefinitionofaGPTLanguageModel,allofitinthissinglefile.References:1)theofficialGPT-2TensorFlowimplementationreleasedbyOpenAI:https://github.com/openai/gpt-2/blob/master/src/model.py2)huggingface/transf
  • 2024-08-20使用CyFES对配体运动轨迹进行数据透视
    技术背景如果我们有一个蛋白质X和一个配体Y,那么可以对这个X+Y的体系跑一段长时间的分子动力学模拟,以观测这个体系在不同结合位点下的稳定性。类似于前面一篇博客中计算等高面的方法,我们可以计算轨迹的KDE函数,然后保存成Cube格式(高斯中用于保存电子轨道的一种格式)的文件。然后就可
  • 2024-08-13Unity中利用遗传算法训练MLP
    Unity中利用遗传算法训练MLP梯度下降法训练神经网络通常需要我们给定训练的输入-输出数据,而用遗传算法会便捷很多,它不需要我们给定好数据,只需要随机化多个权重进行N次“繁衍进化”,就可以得出效果不错的网络。这种训练方式的好处就是不需要训练用的预期输出数据,适合那类可以简单
  • 2024-08-09MSPM0G3057学习记录(二)电机PID闭环控制
    目录一、PID原理讲解  1.比例增益(Proportional): 2.  积分时间(Integral): 3.  微分时间(Derivative):二、PID控制原理图三、位置式PID公式  四、参考代码(一)五、参考代码(二) 一、PID原理讲解          PID(Proportional-Integral-Derivative)闭环控
  • 2024-07-30Bias(偏差)、Variance(方差)
    偏差:是指一个模型的在不同训练集上的平均性能和最优模型的差异。偏差可以用来衡量一个模型的拟合能力。偏差越大,预测值平均性能越偏离最优模型。偏差衡量模型的预测能力,对象是一个在不同训练集上模型,形容这个模型平均性能对最优模型的预测能力。方差:(variance)描述的是一个模型在
  • 2024-07-28昇思25天学习打卡营第24天|生成式-Diffusion扩散模型
    打卡目录打卡理解扩散模型环境设置DiffusionModel简介扩散模型实现原理Diffusion前向过程Diffusion逆向过程训练算法总结U-Net神经网络预测噪声构建Diffusion模型准备函数和类位置向量ResNet/ConvNeXT块Attention模块组归一化条件U-Net正向扩散(core)
  • 2024-07-06【BP时序预测】基于布谷鸟优化算法CS实现负荷数据预测单输入单输出附matlab代码
    %负荷数据预测单输入单输出(BP时序预测)%使用布谷鸟优化算法实现%假设你已经有了输入数据和对应的输出数据%输入数据应该是一个矩阵,每一行代表一个样本,每一列代表一个特征%输出数据应该是一个列向量,每个元素代表对应样本的输出%设置布谷鸟优化算法参数max_iter=
  • 2024-07-05解析Torch中多头注意力`MultiheadAttention`
    前沿:这部分内容是《AttentionIsAllYouNeed》出来之后就深入研究了这篇文章的模型结构,也是之后工作那一年进行实际落地的一小部分内容。最近再次使用它,顺带读了torch官方的实现,大家风范的实现,注意很多细节,值得我们学习,也顺带放在这,之后就不再了解这块内容了,过去式了。下
  • 2024-07-01vision mamba-yolov8:结合Vmamba的yolov8目标检测改进实现
    1.visionmamba结构与原理        Mamba成功的关键在于S6模型,该模型为NLP任务设计,通过选择性扫描空间状态序列模型,将二次复杂度降低至线性。但由于视觉信号(如图像)的无序性,Mamba的S6模型不能直接应用,设计了2D-selective-scan(SS2D)模块。        如上图所
  • 2024-06-30Transformer详解encoder
    目录1.InputEmbedding2.PositionalEncoding3.Multi-HeadAttention4.Add&Norm5.Feedforward+Add&Norm6.代码展示(1)layer_norm(2)encoder_layer=1最近刚好梳理了下transformer,今天就来讲讲它~        Transformer是谷歌大脑2017年在论文attention
  • 2024-05-30YOLOv10最新创新点改进系列:融合最新顶会提出的HCANet网络中卷积和注意力融合模块(CAFM-2024年3月15月开源),有效提升小目标检测性能,大幅度拉升目标检测效果!
    YOLOv10全网最新创新点改进系列:融合最新顶会提出的HCANet网络中卷积和注意力融合模块(CAFM),有效提升小目标检测性能,大幅度拉升目标检测效果!遥遥领先!YOLOv10全网最新创新点改进系列:融合最新顶会提出的HCANet网络中卷积和注意力融合模块(CAFM-2024年4月开源),有效提升小目标检
  • 2024-05-29机器学习策略篇:详解可避免偏差(Avoidable bias)
    可避免偏差如果希望学习算法能在训练集上表现良好,但有时实际上并不想做得太好。得知道人类水平的表现是怎样的,可以确切告诉算法在训练集上的表现到底应该有多好,或者有多不好,让我说明是什么意思吧。经常使用猫分类器来做例子,比如人类具有近乎完美的准确度,所以人类水平的错误是1%
  • 2024-04-23【rust】《Rust深度学习[4]-理解线性网络(Candle)》
    全连接/线性在神经网络中,全连接层,也称为线性层,是一种层,其中来自一层的所有输入都连接到下一层的每个激活单元。在大多数流行的机器学习模型中,网络的最后几层是完全连接的。实际上,这种类型的层执行基于在先前层中学习的特征输出类别预测的任务。全连接层的示例,具有四个输入节点
  • 2024-04-10案例:TensorFlow实现线性回归
    1、线性回归原理复习   1)构建模型      y=w1x1+w2x2+.....wnxn+b   2)构造损失函数      均方误差   3)优化损失       梯度下降2、案例:实现线性回归的训练   准备真实数据   100样本 
  • 2024-04-02大模型架构之MOE
    transformers库里面的modeling_mistral.pyMistralModel((embed_tokens):Embedding(32000,4096)(layers):ModuleList((0-1):2xMistralDecoderLayer((self_attn):MistralSdpaAttention((q_proj):Linear(in_features=4096,out_features=4096,
  • 2024-03-23如何用pytorch调用预训练Swin Transformer中的一个Swin block模块
    1,首先,我们需要知道的是,想要调用预训练的SwinTransformer模型,必须要安装pytorch2,因为pytorch1对应的torchvision中不包含SwinTransformer。2,pytorch2调用预训练模型时,不建议使用pretrained=True,这个用法即将淘汰,会报警告。最好用如下方式:fromtorchvision.models.swin_trans
  • 2024-03-11蒸馏网络中的bias是指什么? —— 论文《Distilling the Knowledge in a Neural Network》—— 知识蒸馏
    论文地址:https://arxiv.org/pdf/1503.02531.pdf在蒸馏网络中会遇到手动调整bias的说法,但是这个bias在论文中又没有明细说明是怎么个bias,具体论文出处:Ifthisbiasisincreasedby3.5查询Gemini,得到回答:Assumingyou'rereferringtotheprevioussentenceaboutl
  • 2024-02-21【深度学习】TensorFlow实现线性回归,代码演示。全md文档笔记(代码文档已分享)
    本系列文章md笔记(已分享)主要讨论深度学习相关知识。可以让大家熟练掌握机器学习基础,如分类、回归(含代码),熟练掌握numpy,pandas,sklearn等框架使用。在算法上,掌握神经网络的数学原理,手动实现简单的神经网络结构,在应用上熟练掌握TensorFlow框架使用,掌握神经网络图像相关案例。具体
  • 2024-02-15因果推断在推荐系统debias的应用
    推荐系统的bias有很多:positionbias,popularitypias,selectionbias,exposurebias,conformitybias(从众心理)等,针对不同的bias有不同的模型来解决。核心的问题还是,这些bias导致一部分优秀的itemunderestimate或者underperform,为了更公正的推出这些item,需要去掉这些bias。
  • 2024-01-30大模型模型结构总结
    对比各个大模型的网络结构ps:使用自己的config,但是模型结构跟官方配置原理一致.chatglm3ChatGLMForConditionalGeneration((transformer):ChatGLMModel((embedding):Embedding((word_embeddings):Embedding(65024,4096))(rotary_pos_emb):Rotar