mae
  • 2024-11-03Matlab 基于贝叶斯算法优化Transformer结合支持向量机回归(Bayes-Transformer-SVM)
    基于Bayes-Transformer-SVM多变量回归预测(多输入单输出)贝叶斯算法(BO/Bayes)优化参数为自注意力机制头数、正则化系数、学习率!你先用你就是创新!!!1.程序已经调试好,无需更改代码替换数据集即可运行!!!数据格式为excel!2.评价指标包含:RMSE、R2、MSE、MAE、MBE、MAPE、RPD。3.Tran
  • 2024-09-29Matlab 基于Transformer-LSTM-SVM多变量时序预测 (多输入单输出)
    基于Transformer-LSTM-SVM多变量时序预测(多输入单输出)你先用你就是创新!!!1.程序已经调试好,无需更改代码替换数据集即可运行!!!数据格式为excel!2.评价指标包含:RMSE、R2、MSE、MAE、MBE、MAPE、RPD。3.Transformer作为一种创新的神经网络结构,深受欢迎。采用Transformer编码器
  • 2024-09-15神经网络-损失函数
    文章目录一、回归问题的损失函数1.均方误差(MeanSquaredError,MSE)2.平均绝对误差(MeanAbsoluteError,MAE)二、分类问题的损失函数1.0-1损失函数(Zero-OneLossFunction)2.交叉熵损失(Cross-EntropyLoss)3.合页损失(HingeLoss)三、总结在神经网络中,损失函数(LossFunc
  • 2024-07-28Datawhale AI 夏令营:siRNA药物药效预测----Task 1
    Task1:赛题解析&背景入门思考引导(前言)RNA干扰(RNAi)RNA干扰(RNAi)是一种天然存在的基因表达调控机制,通过小干扰RNA(siRNA)等分子来沉默特定基因的表达。这一机制在细胞中起着重要作用,能精确地抑制目标基因的表达,从而减少相应蛋白质的产生。siRNA通过与靶mRNA结合,诱导RNA诱导沉默复
  • 2024-06-05回归模型的算法性能评价
    一、概述在一般形式的回归问题中,会得到系列的预测值,它们与真实值(groundtruth)的比较表征了模型的预测能力,为有效量化这种能力,常见的性能评价指标有可解释方差(EVS)、平均绝对误差(MAE)、均方误差(MSE)、均方根误差(RMSE)、决定系数(R2)等。值得一提的是,回归问题分单输出情形和多输出情形,在
  • 2024-04-08【机器学习】利用Autoencoder进行无监督异常检测(含代码)
    Autoencoder算法是一种常见的基于神经网络的无监督学习降维方法(其他常见降维方法)。文章目录一、Autoencoder简介二、Autoencoder无监督异常检测三、利用Antoencoder检测信用卡欺诈四、完整代码一、Autoencoder简介Autoencoder,中文称作自编码器,是一种无监督式学习模
  • 2024-04-07个人医疗开支预测项目
     注意:本文引用自专业人工智能社区VenusAI更多AI知识请参考原站([www.aideeplearning.cn])项目背景随着医疗成本的持续上涨,个人医疗开支成为一个重要议题。理解影响医疗费用的多种因素对于医疗保险公司、政府机构以及个人都至关重要。利用数据分析和机器学习技术,我们能够更
  • 2024-04-05(arxiv2401) CrossMAE
    作者团队来自加州大学伯克利分校(UCBerkeley)和加州大学旧金山分校(UCSF)。论文主要探讨了在MAE的解码中,图像patch之间的依赖性,并提出了一种新的预训练框架CrossMAE。论文的主要贡献包括:提出了CrossMAE框架,其解码器仅利用掩码和可见标记之间的交叉注意力,而不使用掩码标记之
  • 2024-03-24【论文精读】MAE:Masked Autoencoders Are Scalable Vision Learners 带掩码的自动编码器是可扩展的视觉学习器
    系列文章目录【论文精读】Transformer:AttentionIsAllYouNeed【论文精读】BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding【论文精读】VIT:visiontransformer论文文章目录系列文章目录一、前言二、文章概览(一)研究背景(二)MAE的主
  • 2024-03-02CVPR 2024 满分论文!Meta提出EfficientSAM:快速分割一切!
    前言 Meta研究者提出了一种改进思路,利用SAM的掩码图像预训练(SAMI)。这是通过利用MAE预训练方法和SAM模型实现的,以获得高质量的预训练ViT编码器。这一方法降低了SAM的复杂性,同时能够保持良好的性能。本文转载自机器之心仅用于学术分享,若侵权请联系删除欢迎关注公
  • 2024-01-30何恺明MAE论文简解
    MAE这篇论文在2022年发表,当年比较火。起因是nlp一直有非常棒的预训练模型,比如bert。那么cv能不能仿照一下也得到很棒的模型呢?为此,研究开始了。参考资料:https://zhuanlan.zhihu.com/p/439554945  模型的结构简单易懂,就是mask一些像素块,将没有mask的像素块作为encoder的输入
  • 2023-12-24【线性回归模型评价指标解析】
    线性回归模型评价指标解析(文章目录)前言线性回归是统计学中一种常见的方法,用于建立自变量与因变量之间的线性关系模型。在实际应用中,我们常常需要对线性回归模型的性能进行评估,以了解模型的拟合程度和预测能力。本文将介绍线性回归中几种常见的模型评价指标,包括均方误差(MeanS
  • 2023-11-01Convolutional neural network (CNN)–extreme learning machine (ELM)
    1.介绍论文:(2020)Neuralnetworksforfacialageestimation:asurveyonrecentadvances.地址:http://link.springer.com/article/10.1007/s10462-019-09765-w针对问题:软生物识别技术在现实世界中的应用日益增多,已成为研究人员感兴趣的一个新领域。它包括对年龄、性别、伤疤、
  • 2023-10-05wsdream2
    importosimporturllib.requestimportzipfilefrompprintimportpprintimportnumpyasnpimporttensorflowastfimportkerasaskdefset_session(device_count=None,seed=0):gpu_options=tf.compat.v1.GPUOptions(allow_growth=True)ifdevice_
  • 2023-10-03wsdream
    importosimporturllib.requestimportzipfilefrompprintimportpprintimportnumpyasnpimporttensorflowastfimportkerasaskdefset_session(device_count=None,seed=0):gpu_options=tf.compat.v1.GPUOptions(allow_growth=True)ifdevice_c
  • 2023-08-28ViT和MAE模型结合初探
    介绍transfomer在NLP领域的应用已经非常广泛,但是在CV领域的应用还比较少,主要是因为CV领域的数据是二维的,而transfomer是基于序列的,因此需要将二维数据转换成序列数据,这就是ViT的由来。ViT是将图像分割成一个个patch,然后将patch展开成序列,再输入到transformer中,这样就可以将transf
  • 2023-08-11基于卷积神经网络的MAE自监督方法
    本文分享自华为云社区《基于卷积神经网络的MAE自监督方法》,作者:Hint。图像自监督预训练算法是近年来的重要研究方向,MAE是其中基于ViT实现的代表性方法,学习到了鲁棒的视觉特征。MAE全称是MaskedAutoencoders,是由何凯明提出的自监督预训练方法,借鉴了BERT的预训练任务,将输入图片
  • 2023-08-11基于卷积神经网络的MAE自监督方法
    本文分享自华为云社区《基于卷积神经网络的MAE自监督方法》,作者:Hint。图像自监督预训练算法是近年来的重要研究方向,MAE是其中基于ViT实现的代表性方法,学习到了鲁棒的视觉特征。MAE全称是MaskedAutoencoders,是由何凯明提出的自监督预训练方法,借鉴了BERT的预训练任务,将输入图片的
  • 2023-08-04强到离谱,Transformer为何能闯入CV界秒杀CNN?
    Transformer近年来已成为视觉领域的新晋霸主,这个来自NLP领域的模型架构为何能闯入CV界秒杀CNN?自提出之日起,Transformer模型已经在CV、NLP以及其他更多领域中「大展拳脚」,实力冲击CNN。Transformer为什么这么有实力?因为它在分类、检测等任务上展现了极其强劲的性能。而且骨干网络
  • 2023-07-24基础模型自监督预训练的数据之谜:大量数据究竟是福还是祸?
    前言 在自监督预训练中,是否数据越多越好?数据增广是否始终有效?本文转载自PaperWeekly作者|诺亚方舟实验室仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。CV各大方向专栏与各个部署框架最全
  • 2023-07-15[论文速览] A Closer Look at Self-supervised Lightweight Vision Transformers
    Pretitle:ACloserLookatSelf-supervisedLightweightVisionTransformersaccepted:ICML2023paper:https://arxiv.org/abs/2205.14443code:https://github.com/wangsr126/mae-literef:https://mp.weixin.qq.com/s/7FiDLYBZiAX-xkW-dZBU9Q关键词:lightweght,ViT
  • 2023-06-10【论文阅读】Masked Autoencoders Are Scalable Vision Learners
  • 2023-05-28[论文速览] MAGE@MAsked Generative Encoder to Unify Representation Learning and Image Synthesis
    Pretitle:MAGE:MAskedGenerativeEncodertoUnifyRepresentationLearningandImageSynthesisaccepted:CVPR2023paper:https://arxiv.org/abs/2211.09117code:https://github.com/LTH14/mageref:https://mp.weixin.qq.com/s/AfWWwrEpYAHI03tIzVxMiQ关键词:Repre
  • 2023-05-25ICML 2023 | 轻量级视觉Transformer (ViT) 的预训练实践手册
    前言 本文介绍一下最近被ICML2023接收的文章:ACloserLookatSelf-SupervisedLightweightVisionTransformers.文章聚焦在轻量级ViT的预训练上,相当于为相关方向的研究提供了一个benchmark,相关的代码与模型也都会开源,方便后续大家在这一方向上继续探索。文章的研究也打破
  • 2023-05-15使用神经网络实现波士顿房价的预测
    主要目的:1、从keras的数据集中加载波士顿房价数据,注意需要做数据的标准化。2、构建一个神经网络模型,并使用划分好的训练集数据训练模型,使用划分好的测试集的数据验证模型,训练迭代100次(不需要K折验证)。3、获取训练过程中的训练mae值、验证mae值,并使用matplotlib来绘制mae值变化