• 2024-10-017、超参数调试、Batch正则化
    1、调整过程  在训练神经网络时,超参数的调试十分重要,下面分享一些指导原则。     通常来说,①学习因子α是最重要的超参数,也是需要重点调试的超参数。②动量梯度下降因子beta、各隐藏层神经元个数hiddenunits和mini-batchsize的重要性仅次于alpha。③然后就是神经网络
  • 2024-09-16(CS231n课程笔记)深度学习之损失函数详解(SVM loss,Softmax,熵,交叉熵,KL散度)
    学完了线性分类,我们要开始对预测结果进行评估,进而优化权重w,提高预测精度,这就要用到损失函数。损失函数(LossFunction)是机器学习模型中的一个关键概念,用于衡量模型的预测结果与真实标签之间的差距。损失函数的目标是通过提供一个差距的度量,帮助模型进行优化,最终减少预测误差。
  • 2024-09-05增强 softmax 函数的稳定性
    概述oftmax函数的表达式$\text{Softmax}(x_i)=\frac{e^{x_i}}{\sum_{j}e^{x_j}}$,但在计算机的运算上有一定的缺陷。这个缺陷就是溢出问题。softmax函数的实现中要进行指数函数的运算,但是此时指数函数的值很容易变得非常大。比如,e^{10}的值会超过20000,e^{100}会变成一
  • 2024-09-01Datawhale X 李宏毅苹果书 AI夏令营 深度学习进阶笔记02
    目录一、学习资料二、学习笔记(一)自适应学习率(adaptivelearningrate)1、什么是+为什么要用2、三种自适应学习率方法(1)AdaGrad(AdaptiveGradient)(2)RMSprop(RootMeanSquaredpropagation)(3)Adam(Adaptivemomentestimation)(二)学习率调度(learningratescheduling)1、为什么
  • 2024-08-25TensorFlow实现Softmax回归
    原理模型相比线性回归,Softmax只多一个分类的操作,即预测结果由连续值变为离散值,为了实现这样的结果,我们可以使最后一层具有多个神经元,而输入不变,其结构如图所示:为了实现分类,我们使用一个Softmax操作,Softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持可
  • 2024-08-236-SoftMax回归
    https://blog.csdn.net/qq_43799400/article/details/131202148写代码遇到问题1、使用data.DataLoader时如果使用多进程num_workers,会报错其原因可能是https://blog.csdn.net/KaelCui/article/details/1061841582、loss的backward注意backward只能对标量,而不是对张量。
  • 2024-08-19[Base] Agent Attention
    1.BaseInfoTitleAgentAttention:OntheIntegrationofSoftmaxandLinearAttentionAdresshttps://arxiv.org/pdf/2312.08874Journal/Time202312ECCV2024Author清华自动化系Codehttps://github.com/LeapLabTHU/Agent-AttentionTableAttention2.CreativeQ&AQ:Swin
  • 2024-08-19利用眼底图像自动诊断青光眼的拟议模型在实验中超越眼科专家
    研究背景论文地址:https://journals.lww.com/ijo/fulltext/2021/10000/identification_of_glaucoma_from_fundus_images.31.aspx本研究旨在建立一种基于眼底图像的深度学习的青光眼自动诊断算法。青光眼是一种眼压升高导致负责向大脑传递信息的神经纤维收缩的疾病,造成视神
  • 2024-08-17Self-Attention自注意力机制解读(2):图解版!
    文章目录一、前言二、流程解读1.它整体做了一件什么事2.多层Self-attention3.self-attention做了一件什么事4.具体流程三、流程的矩阵表示三、Softmax层的解释一、前言上一篇文章Self-Attention自注意力机制:深度学习中的动态焦点|手把手实例解析看不懂你打我以
  • 2024-08-13归一化指数函数——softmax函数
    概念与应用Softmax函数常用于多分类任务,将模型输出值归一化到[0,1]范围内,作为样本的概率。二分类可以看作是多分类的一种。因此,Softmax函数可以兼容logistics函数。logistics可以将输出归一化到[0,1],但是仅输出正类的概率值。Softmax可以输出每一个样本对应的概率值。实际使用中,
  • 2024-08-09limu|P8-9|线性回归、softmax回归
    线性回归模型:\(y=Xw+b+\epsilon\)1、如何衡量模型质量?lossfunction损失函数——量化实际值和预测值之间的差距可证:在高斯噪声的假设下,线性模型的最大似然估计等价于最小化均方误差(MSE)。证明在另一篇里写过:https://www.cnblogs.com/xjl-ultrasound/p/18305000平方误差:
  • 2024-08-06机器学习中的两个重要函数--sigmoid和softmax
    机器学习中,常常见到两个函数名称:sigmoid和softmax。前者在神经网络中反复出现,也被称为神经元的激活函数;后者则出现在很多分类算法中,尤其是多分类的场景,用来判断哪种分类结果的概率更大。本文主要介绍这两个函数的定义,形态,在算法中的作用,以及两个函数之间的联系。1.sigmoid函数
  • 2024-08-05hello
    点击查看代码defforward(self,output_logits,target,extra_info=None):ifextra_infoisNone:returnself.base_loss(output_logits,target)#output_logitsindicatesthefinalpredictionloss=0temperature_mean=1
  • 2024-07-123.6--softmax回归的从零开始实现
    softmax回归从零实现前言一、导入相关的库二、数据和模型参数1.读取数据2.初始化模型参数三、实现softmax运算四、定义模型五、定义损失函数六、计算分类准确率七、训练模型八、预测总结前言本节介绍softmax和交叉熵损失函数的从零开始实现。一、导入相关的库imp
  • 2024-07-08ollama temperature 作用
    在机器学习,尤其是深度学习和自然语言处理领域中,temperature参数通常指的是softmax函数或采样策略中的一个控制变量。它影响模型输出的概率分布,进而影响模型生成的输出的随机性和多样性。 在ollama/api/generate的API接口中,temperature是一个可选参数,属于options部分
  • 2024-07-06MNIST数据集:手搓softmax回归
    源码:importtorchimporttorchvisionastvfromtorch.utilsimportdataimportmatplotlib.pyplotaspltimporttimedefget_fashion_mnist_labels(labels):text_labels=['T-shirt/top','Trouser','Pullover','Dress&#
  • 2024-07-05NLP - Softmax与层次Softmax对比
    SoftmaxSoftmax是神经网络中常用的一种激活函数,用于多分类任务。Softmax函数将未归一化的logits转换为概率分布。公式如下:P(y
  • 2024-06-23softmax-regression
    importtorchfromd2limporttorchasd2lbatch_size=50train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)help(d2l.load_data_fashion_mnist)Helponfunctionload_data_fashion_mnistinmoduled2l.torch:load_data_fashion_mnist(batch
  • 2024-06-22【机器学习】基于Softmax松弛技术的离散数据采样
    1.引言1.1.离散数据采样的意义离散数据采样在深度学习中起着至关重要的作用,它直接影响到模型的性能、泛化能力、训练效率、鲁棒性和解释性。首先,采样方法能够有效地平衡数据集中不同类别的样本数量,使得模型在训练时能够更均衡地学习各个类别的特征,从而避免因数据不平衡导
  • 2024-06-09SoftMax 的困境:在稀疏性和多模态之间左右为难
    SoftMax是现代机器学习算法中无处不在的组成部分。它将输入向量映射到概率单纯形,并通过将概率质量集中在较大的条目上,来重新加权输入。然而,作为Argmax函数的平滑近似,SoftMax将大量的概率质量分配给其他剩余的条目,导致可解释性差和噪声。虽然稀疏性可以通过一系列SoftMa
  • 2024-06-08深度学习 - softmax交叉熵损失
    示例代码importtorchfromtorchimportnn#多分类交叉熵损失,使用nn.CrossEntropyLoss()实现。nn.CrossEntropyLoss()=softmax+损失计算deftest1():#设置真实值:可以是热编码后的结果也可以不进行热编码#y_true=torch.tensor([[0,1,0],[0,0,1]
  • 2024-05-31tf.keras实现逻辑回归和softmax多分类
    逻辑回归实现转自:https://www.cnblogs.com/miraclepbc/p/14311509.html相关库引用importtensorflowastfimportnumpyasnpimportpandasaspdimportmatplotlib.pyplotasplt%matplotlibinline加载数据data=pd.read_csv("E:/datasets/dataset/credit-a.csv",h
  • 2024-04-26【pytorch学习】之线性神经网络-softmax回归
    softmax回归回归可以用于预测多少的问题。比如预测房屋被售出价格,或者棒球队可能获得的胜场数,又或者患者住院的天数。事实上,我们也对分类问题感兴趣:不是问“多少”,而是问“哪一个”:某个电子邮件是否属于垃圾邮件文件夹?某个用户可能注册或不注册订阅服务?某个图像描绘的是驴、
  • 2024-04-24论文笔记-Two-phase flow regime identification based on the liquid-phase velocity information and machine
    对象:液相速度信息方法:CNN、LSTM、SVM目标:实现了水平管道内两相流态识别关注特征:从速度时间序列数据中提取的统计特征:均值、均方根和功率谱密度、最大速度比和最大速度差比结果:SVM-93.1%,CNN-94%,LSTM-不佳73.3%LSTM:总共使用了300秒的速度数据,然后将其分为180秒用于训练和
  • 2024-04-16吴恩达机器学习-第二课-第二周
    吴恩达机器学习学习视频参考b站:吴恩达机器学习本文是参照视频学习的随手笔记,便于后续回顾。TensorFlow实现神经网络模型训练细节训练步骤与和逻辑回归的比较训练模型分为三步:1.确定f(x)函数2.确定损失函数和代价函数3.通过数据训练寻找最小值详细介绍1.创建模型2.