• 2024-06-23softmax-regression
    importtorchfromd2limporttorchasd2lbatch_size=50train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)help(d2l.load_data_fashion_mnist)Helponfunctionload_data_fashion_mnistinmoduled2l.torch:load_data_fashion_mnist(batch
  • 2024-06-22【机器学习】基于Softmax松弛技术的离散数据采样
    1.引言1.1.离散数据采样的意义离散数据采样在深度学习中起着至关重要的作用,它直接影响到模型的性能、泛化能力、训练效率、鲁棒性和解释性。首先,采样方法能够有效地平衡数据集中不同类别的样本数量,使得模型在训练时能够更均衡地学习各个类别的特征,从而避免因数据不平衡导
  • 2024-06-09SoftMax 的困境:在稀疏性和多模态之间左右为难
    SoftMax是现代机器学习算法中无处不在的组成部分。它将输入向量映射到概率单纯形,并通过将概率质量集中在较大的条目上,来重新加权输入。然而,作为Argmax函数的平滑近似,SoftMax将大量的概率质量分配给其他剩余的条目,导致可解释性差和噪声。虽然稀疏性可以通过一系列SoftMa
  • 2024-06-08深度学习 - softmax交叉熵损失
    示例代码importtorchfromtorchimportnn#多分类交叉熵损失,使用nn.CrossEntropyLoss()实现。nn.CrossEntropyLoss()=softmax+损失计算deftest1():#设置真实值:可以是热编码后的结果也可以不进行热编码#y_true=torch.tensor([[0,1,0],[0,0,1]
  • 2024-05-31tf.keras实现逻辑回归和softmax多分类
    逻辑回归实现转自:https://www.cnblogs.com/miraclepbc/p/14311509.html相关库引用importtensorflowastfimportnumpyasnpimportpandasaspdimportmatplotlib.pyplotasplt%matplotlibinline加载数据data=pd.read_csv("E:/datasets/dataset/credit-a.csv",h
  • 2024-04-26【pytorch学习】之线性神经网络-softmax回归
    softmax回归回归可以用于预测多少的问题。比如预测房屋被售出价格,或者棒球队可能获得的胜场数,又或者患者住院的天数。事实上,我们也对分类问题感兴趣:不是问“多少”,而是问“哪一个”:某个电子邮件是否属于垃圾邮件文件夹?某个用户可能注册或不注册订阅服务?某个图像描绘的是驴、
  • 2024-04-24论文笔记-Two-phase flow regime identification based on the liquid-phase velocity information and machine
    对象:液相速度信息方法:CNN、LSTM、SVM目标:实现了水平管道内两相流态识别关注特征:从速度时间序列数据中提取的统计特征:均值、均方根和功率谱密度、最大速度比和最大速度差比结果:SVM-93.1%,CNN-94%,LSTM-不佳73.3%LSTM:总共使用了300秒的速度数据,然后将其分为180秒用于训练和
  • 2024-04-16吴恩达机器学习-第二课-第二周
    吴恩达机器学习学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。TensorFlow实现神经网络模型训练细节训练步骤与和逻辑回归的比较训练模型分为三步:1.确定f(x)函数2.确定损失函数和代价函数3.通过数据训练寻找最小值详细介绍1.创建模型2.
  • 2024-04-10【机器学习】Logistic与Softmax回归详解
    在深入探讨机器学习的核心概念之前,我们首先需要理解机器学习在当今世界的作用。机器学习,作为人工智能的一个重要分支,已经渗透到我们生活的方方面面,从智能推荐系统到自动驾驶汽车,再到医学影像的分析。它能够从大量数据中学习模式和规律,然后使用这些学习到的信息来做出预测或决
  • 2024-04-07[深度学习]Softmax回归、损失函数、分类
    [深度学习]\(Softmax\)回归、损失函数、分类1、\(Softmax\)回归模型\(Softmax\)回归虽然它的名字是回归,其实它是一个分类问题。\(Softmax\)回归跟线性回归一样将输入特征与权值做线性叠加。与线性回归主要不同的在于:\(Softmax\)回归的输出值个数等于标签里的类别数。比如一共
  • 2024-04-02自然语言处理基础知识入门(二) Word2vec模型,层次softmax,负采样算法详解
    文章目录前言一、Word2vec模型1.1什么是Word2vec模型?1.2Word2vec模型是如何训练?1.3Word2vec最简单版本整体过程1.4Word2vec详细过程1.5CBOW整体过程1.6Skip-gram整体过程二、优化算法2.1层次softmax2.1.1哈夫曼树2.1.2算法详细逻辑2.2负采样策略总结
  • 2024-04-02BSL: Understanding and Improving Softmax Loss for Recommendation
    目录概符号说明SoftmaxlossBilateralSoftmaxloss(BSL)代码WuJ.,ChenJ.,WuJ.,ShiW.,ZhangJ.andWangX.BSL:UnderstandingandImprovingSoftmaxLossforRecommendation.ICDE,2024.概作者'发现'在协同过滤中,Softmaxloss会比BCE/BPR损失效果好很多,
  • 2024-04-01基于energy score的out-of-distribution数据检测,LeCun都说好 | NerulPS 2020
     论文提出用于out-of-distributions输入检测的energy-based方案,通过非概率的energyscore区分in-distribution数据和out-of-distribution数据。不同于softmax置信度,energyscore能够对齐输入数据的密度,提升OOD检测的准确率,对算法的实际应用有很大的意义来源:晓飞的算法工程笔记
  • 2024-03-21深度 学习
    深度学习入门...小鱼书数据是学习的核心概念梳理:1.感知机:感知机是二分类的线性分类模型,感知机的目的是求出将输入数据划分为两类的分离超平面。他需要合适的,符合预期的权重才能够正常工作。感知机是构成神经网络的最小构成单位。可以理解为神经元的仿生结构。2.神经网络:历
  • 2024-03-17信号处理--基于gumbel-softmax方法实现运动想象分类的通道选择
    目录背景亮点环境配置数据方法结果代码获取参考文献背景基于Gumbel-softmax方法EEG通道选择层的PyTorch实现。该层可以放置在任何深度神经网络架构的前面,以共同学习给定任务和网络权重的脑电图通道的最佳子集。这一层由选择神经元组成,每个神经元都使用输入通
  • 2024-03-15深度 学习
    深度学习入门...小鱼书数据是学习的核心概念梳理:1.感知机:感知机是二分类的线性分类模型,感知机的目的是求出将输入数据划分为两类的分离超平面。他需要合适的,符合预期的权重才能够正常工作。感知机是构成神经网络的最小构成单位。可以理解为神经元的仿生结构。2.神经网络:历
  • 2024-03-15深度学习
    深度学习入门...小鱼书数据是学习的核心概念梳理:1.感知机:感知机是二分类的线性分类模型,感知机的目的是求出将输入数据划分为两类的分离超平面。他需要合适的,符合预期的权重才能够正常工作。感知机是构成神经网络的最小构成单位。可以理解为神经元的仿生结构。2.神经网络:历
  • 2024-02-04理解『注意力机制』的本质
    一、引例假设有这样一组数据,它们是腰围和体重一一对应的数据对。我们将根据表中的数据对去估计体重。如果现在给出一个新的腰围62,那么体重的估计值是多少呢?凭经验,我们认为腰围和体重是正相关的,所以我们会自然地『关注』和62差距更小的那些腰围,来去估计体重。也就是更加关
  • 2024-02-04神经网络优化篇:详解Softmax 回归(Softmax regression)
    Softmax回归有一种logistic回归的一般形式,叫做Softmax回归,能让在试图识别某一分类时做出预测,或者说是多种分类中的一个,不只是识别两个分类,来一起看一下。假设不单需要识别猫,而是想识别猫,狗和小鸡,把猫加做类1,狗为类2,小鸡是类3,如果不属于以上任何一类,就分到“其它”或者说“以上
  • 2024-02-03Softmax偏导及BP过程的推导
    Softmax求导其实BP过程在pytorch中可以自动进行,这里进行推导只是强迫症AApart证明softmax求导和softmax的BP过程本来像手打公式的,想想还是算了,引用部分给出latex公式说明。A.1softmax导数A.2softmax梯度下降B基本上都是拾人牙慧,在此给出引用和参考。参考:矩阵求导
  • 2023-12-2712/27每日总结
    动手学深度学习拾遗学习完一遍后,通过基于(波士顿房价预测,叶子分类)实战将已经快遗忘的知识点进行拾遗复习softmax首先是softmax分类头的问题,softmax作为分类问题中常见的分类方法,在pytorch中并未直接实现,而是附加到了交叉熵损失函数中,所以在使用时直接进行使用就可以了正则化缓解过
  • 2023-12-27清华提出全新代理注意力范式:Softmax注意力与线性注意力的优雅融合
    前言 来自清华大学的研究者提出了一种新的注意力范式——代理注意力(AgentAttention)。本文转载自机器之心仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。CV各大方向专栏与各个部署框架最
  • 2023-12-16机器学习-线性回归-softmax回归 做多分类-10
    1.softmax回归伯努利分布(0-1分布二分类),我们采用Logistic回归(用sigmoid函数映射到0-1之间输出预测概率)建模。那么我们应该如何处理多分类问题?(比如要进行邮件分类;预测病情属于哪一类等等)。对于这种多项式分布我们使用softmax回归建模。什么是多项分布?多项式分布的目标值yε{
  • 2023-12-12[论文阅读] Replacing softmax with ReLU in Vision Transformers
    Pretitle:ReplacingsoftmaxwithReLUinVisionTransformersaccepted:Arxiv2023paper:https://export.arxiv.org/abs/2309.08586code:None关键词:attention,parallelization阅读理由:GoogleDeepmind,标题挺有意思Idea序列缩放能缓解ReLU等激活函数在attention中替
  • 2023-11-17自然语言处理预训练——近似训练
    近似训练是一种用于加速训练过程的技术。 负采样负采样是在训练过程中对目标函数进行简化的一种方法。在传统的训练中,需要计算整个词汇表的概率分布,这在大规模任务中会非常耗时。负采样的思想是通过随机采样一小部分负例来近似计算全局的目标函数。具体来说,对于每个正例(例如