• 2025-01-04Coding Our First Neurons
    Chapter1:IntroducingNeuralNetwork声明:本篇博客笔记来源于《NeuralNetworksfromscratchinPython》,作者的youtube其实关于神经网络的入门博主已经写过几篇了,这里就不再赘述,附上链接。1.一文窥见神经网络2.神经网络入门(上)3.神经网络入门(下)Chapter2:C
  • 2024-12-30Proj CJI Paper Reading: OffsetBias: Leveraging Debiased Data for Tuning Evaluators
    目的:reducebiasofLLMsMethod:使用GPT4生成off-topic(完全无关的话题)用GPT3.5生成遵照off-topic回答的badresponse用goodresponse,badresponse来微调模型,减少bias注意:这里off-topic不会作为用于防止注入的dataAbstract5.
  • 2024-12-26(即插即用模块-特征处理部分) 十六、(AAAI 2023) WavePooling 波叠加启发池化
    文章目录1、WavePooling2、代码实现paper:WSiP:WaveSuperpositionInspiredPoolingforDynamicInteractions-AwareTrajectoryPredictionCode:https://github.com/Chopin0123/WSiP1、WavePooling论文先分析了目前在轨迹预测领域的一些问题,即现有的轨迹预
  • 2024-12-19HP服务器开启性能模式
    ENERGYPERFBIASCFG模式指的是通过特定配置(通常是BIOS或操作系统中的设置)来控制处理器的能源性能偏置(EnergyPerformanceBias,EPB)。EPB是一种机制,允许用户或系统管理员在性能和功耗之间进行权衡。不同的设置可以影响系统的响应速度、能效等。ENERGYPERFBIASCFG模
  • 2024-12-17what is microphone bias? what is it used for?
    MicrophonebiasreferstoasmallDCvoltageappliedtoamicrophone'sinputlinetoprovidepowertothemicrophone'sinternalelectronics.Thisiscommonlyusedforelectretcondensermicrophones,whicharewidelyusedinheadsets,smartphones
  • 2024-12-17pytorch实现Bert
    模型文件下载gitclonehttps://huggingface.co/google-bert/bert-base-chinese查看config.json配置文件{"architectures":["BertForMaskedLM"],"attention_probs_dropout_prob":0.1,"directionality":"bidi&quo
  • 2024-12-11基于Qwen2-VL模型针对LaTeX OCR任务进行微调训练 - LoRA配置如何写
    基于Qwen2-VL模型针对LaTeXOCR任务进行微调训练-LoRA配置如何写flyfish基于Qwen2-VL模型针对LaTeX_OCR任务进行微调训练_-_LoRA配置如何写基于Qwen2-VL模型针对LaTeX_OCR任务进行微调训练_-_单图推理基于Qwen2-VL模型针对LaTeX_OCR任务进行微调训练_-_原模型_单图推
  • 2024-12-11论文解读-Graph neural networks: A review of methods and applications
     论文介绍这篇论文是图神经网络领域的综述性质的文章,从各个论文里面凝聚和提取了很多精炼的信息和观点,值得一读。论文是2020年成稿投出去的,有点陈旧的。 GNN的介绍在introduction里面对比了GNN和CNN,表示出CNN的关键是局部连接,共享权重,和多层的使用。其中CNN操作的是常规
  • 2024-11-27MAGNet -MAFM 多尺度感知融合模块
    importmathimporttorch.nnasnnimporttorchfromtimm.models.layersimporttrunc_normal_classCOI(nn.Module):def__init__(self,inc,k=3,p=1):super().__init__()self.outc=incself.dw=nn.Conv2d(inc,self.outc,kernel
  • 2024-12-01【page cache】回写机制
    writeback回写bufferIO通过pagecache进行缓存,减少对底层存储设备的直接读写,同时能够提高整体性能写入到pagecache的数据不会立刻写入后端设备,而是标记为“脏”,并被加入到脏页链表,后续由内核中的回写进程周期性的将脏页写回到底层存储设备下面主要分析pagecache回写
  • 2024-10-09RT-DETR改进|爆改模型|涨点|使用VMamba作为骨干网络(附代码+修改教程)
    一、文本介绍本文修改的模型是RT-DETR,在原本的RT-DETR中,使用ResNet作为骨干网络,本文使用最新的VMamba(VisualStateSpaceModel)替换ResNet作为RT-DETR的骨干网络。VMamba是一种全新的视觉框架,VMamba结合了CNNs和ViTs的优势,同时优化了计算效率,能够在保持全局感受野的情况下实
  • 2024-08-20使用CyFES对配体运动轨迹进行数据透视
    技术背景如果我们有一个蛋白质X和一个配体Y,那么可以对这个X+Y的体系跑一段长时间的分子动力学模拟,以观测这个体系在不同结合位点下的稳定性。类似于前面一篇博客中计算等高面的方法,我们可以计算轨迹的KDE函数,然后保存成Cube格式(高斯中用于保存电子轨道的一种格式)的文件。然后就可
  • 2024-08-13Unity中利用遗传算法训练MLP
    Unity中利用遗传算法训练MLP梯度下降法训练神经网络通常需要我们给定训练的输入-输出数据,而用遗传算法会便捷很多,它不需要我们给定好数据,只需要随机化多个权重进行N次“繁衍进化”,就可以得出效果不错的网络。这种训练方式的好处就是不需要训练用的预期输出数据,适合那类可以简单
  • 2024-08-09MSPM0G3057学习记录(二)电机PID闭环控制
    目录一、PID原理讲解  1.比例增益(Proportional): 2.  积分时间(Integral): 3.  微分时间(Derivative):二、PID控制原理图三、位置式PID公式  四、参考代码(一)五、参考代码(二) 一、PID原理讲解          PID(Proportional-Integral-Derivative)闭环控
  • 2024-07-30Bias(偏差)、Variance(方差)
    偏差:是指一个模型的在不同训练集上的平均性能和最优模型的差异。偏差可以用来衡量一个模型的拟合能力。偏差越大,预测值平均性能越偏离最优模型。偏差衡量模型的预测能力,对象是一个在不同训练集上模型,形容这个模型平均性能对最优模型的预测能力。方差:(variance)描述的是一个模型在
  • 2024-07-28昇思25天学习打卡营第24天|生成式-Diffusion扩散模型
    打卡目录打卡理解扩散模型环境设置DiffusionModel简介扩散模型实现原理Diffusion前向过程Diffusion逆向过程训练算法总结U-Net神经网络预测噪声构建Diffusion模型准备函数和类位置向量ResNet/ConvNeXT块Attention模块组归一化条件U-Net正向扩散(core)
  • 2024-07-06【BP时序预测】基于布谷鸟优化算法CS实现负荷数据预测单输入单输出附matlab代码
    %负荷数据预测单输入单输出(BP时序预测)%使用布谷鸟优化算法实现%假设你已经有了输入数据和对应的输出数据%输入数据应该是一个矩阵,每一行代表一个样本,每一列代表一个特征%输出数据应该是一个列向量,每个元素代表对应样本的输出%设置布谷鸟优化算法参数max_iter=
  • 2024-07-05解析Torch中多头注意力`MultiheadAttention`
    前沿:这部分内容是《AttentionIsAllYouNeed》出来之后就深入研究了这篇文章的模型结构,也是之后工作那一年进行实际落地的一小部分内容。最近再次使用它,顺带读了torch官方的实现,大家风范的实现,注意很多细节,值得我们学习,也顺带放在这,之后就不再了解这块内容了,过去式了。下
  • 2024-07-01vision mamba-yolov8:结合Vmamba的yolov8目标检测改进实现
    1.visionmamba结构与原理        Mamba成功的关键在于S6模型,该模型为NLP任务设计,通过选择性扫描空间状态序列模型,将二次复杂度降低至线性。但由于视觉信号(如图像)的无序性,Mamba的S6模型不能直接应用,设计了2D-selective-scan(SS2D)模块。        如上图所
  • 2024-06-30Transformer详解encoder
    目录1.InputEmbedding2.PositionalEncoding3.Multi-HeadAttention4.Add&Norm5.Feedforward+Add&Norm6.代码展示(1)layer_norm(2)encoder_layer=1最近刚好梳理了下transformer,今天就来讲讲它~        Transformer是谷歌大脑2017年在论文attention
  • 2024-05-30YOLOv10最新创新点改进系列:融合最新顶会提出的HCANet网络中卷积和注意力融合模块(CAFM-2024年3月15月开源),有效提升小目标检测性能,大幅度拉升目标检测效果!
    YOLOv10全网最新创新点改进系列:融合最新顶会提出的HCANet网络中卷积和注意力融合模块(CAFM),有效提升小目标检测性能,大幅度拉升目标检测效果!遥遥领先!YOLOv10全网最新创新点改进系列:融合最新顶会提出的HCANet网络中卷积和注意力融合模块(CAFM-2024年4月开源),有效提升小目标检