• 2024-09-28案例库、最高法--合同存在豁免特定类型赔偿责任的约定,如后续当事人对损失存在民法506条情形的,对该部分应参照无效处理
    2023-16-2-137-005  (2022)粤民申17623号  吴某某诉深圳市某速递公司罗湖分公司、深圳市某速递公司快递服务合同纠纷案【该案虽然是快递赔付主题,但也是民法506条的解释与应用】合同约定:运输单上的保价条款规定:保价快件足额投保的情况下,按照实际损失赔付;快件未足额投保的情况下
  • 2024-09-21【深度学习】(3)--损失函数
    文章目录损失函数一、L1Loss损失函数1.定义2.优缺点3.应用二、NLLLoss损失函数1.定义与原理2.优点与注意3.应用三、MSELoss损失函数1.定义与原理2.优点与注意3.应用四、BCELoss损失函数1.定义与原理2.优点与注意3.应用五、CrossEntropyLoss损失函数1.定
  • 2024-09-19每天五分钟深度学习框架pytorch:pytorch中已经定义好的损失函数
    本文重点前面我们学习了pytorch中两种模式的损失函数,一种是nn,另外一种是functional,本文将讲解pytorch中已经封装好的损失函数。其实nn的方式就是类,而functional的方式就是方法。nn中使用的也是functional。损失函数中的参数无论是nn还是functional,大多数的损失函数都有size
  • 2024-09-19深度学习后门攻击分析与实现(一)
    在计算机安全中,后门攻击是一种恶意软件攻击方式,攻击者通过在系统、应用程序或设备中植入未经授权的访问点,从而绕过正常的身份验证机制,获得对系统的隐蔽访问权限。这种“后门”允许攻击者在不被检测的情况下进入系统,执行各种恶意活动。后门可以分为几种主要类型:a)软件后门:通过修
  • 2024-09-19深度学习:常用的损失函数的使用和损失函数学习总结
    1.损失函数的概念        损失函数是监督学习中的一个核心概念,用于衡量模型预测的结果与真实值之间的差距。在机器学习模型的训练过程中,损失函数计算预测值与实际标签之间的误差,训练的目标就是通过优化算法(如梯度下降)最小化这个损失函数,从而使模型在给定数据集上的表
  • 2024-09-18python 深度神经网络训练,pytorch ,tensorflow paddle大模型训练中损失突然增大的原因与对策
    在机器学习和深度学习的训练过程中,损失函数的数值突然变高可能是由多种因素引起的。以下是一些可能的原因和相应的解决方案:1.**学习率设置不当**:如果学习率过高,可能会导致模型在优化过程中跳过最小值,甚至导致模型发散。相反,如果学习率过低,则可能导致模型训练速度过慢,甚至停滞
  • 2024-09-18《深度学习》PyTorch 常用损失函数原理、用法解析
    目录一、常用损失函数1、CrossEntropyLoss(交叉熵损失)        1)原理    2)流程        3)用法示例2、L1Loss(L1损失/平均绝对误差)    1)原理        2)用法示例3、NLLLoss(负对数似然损失)    1)原理    2)用法示例
  • 2024-09-16Improving Weakly-Supervised Object Localization Using Adversarial Erasing and Pseudo Label 论文阅读
    一、背景        CAM的方法通常只定位了对象中最具判别性的部分(训练过程中缺乏详细的位置信息),后续一些先进的方法定位目标区域包括:利用多个特征映射;采用对抗性擦除;合并伪标签;设计替换架构;引入额外处理或者利用单独的网络或者伪标签生成器等    这篇论文专注
  • 2024-09-16(CS231n课程笔记)深度学习之损失函数详解(SVM loss,Softmax,熵,交叉熵,KL散度)
    学完了线性分类,我们要开始对预测结果进行评估,进而优化权重w,提高预测精度,这就要用到损失函数。损失函数(LossFunction)是机器学习模型中的一个关键概念,用于衡量模型的预测结果与真实标签之间的差距。损失函数的目标是通过提供一个差距的度量,帮助模型进行优化,最终减少预测误差。
  • 2024-09-15神经网络-损失函数
    文章目录一、回归问题的损失函数1.均方误差(MeanSquaredError,MSE)2.平均绝对误差(MeanAbsoluteError,MAE)二、分类问题的损失函数1.0-1损失函数(Zero-OneLossFunction)2.交叉熵损失(Cross-EntropyLoss)3.合页损失(HingeLoss)三、总结在神经网络中,损失函数(LossFunc
  • 2024-09-14Python实现梯度下降法
    博客:Python实现梯度下降法目录引言什么是梯度下降法?梯度下降法的应用场景梯度下降法的基本思想梯度下降法的原理梯度的定义学习率的选择损失函数与优化问题梯度下降法的收敛条件Python实现梯度下降法面向对象的设计思路代码实现示例与解释梯度下降法应用实例:线
  • 2024-09-14yolov8 obb算法中的GBB和ProbIoU核心内容
    2021年10月提交的原论文《GaussianBoundingBoxesandProbabilisticIntersection-over-UnionforObjectDetection》一.研究背景研究问题:这篇文章要解决的问题是如何更好地表示对象的形状和位置,以便在目标检测任务中提高检测精度。传统的水平边界框(HBB)和定向边界框(OBB)
  • 2024-09-14二、神经网络基础(逻辑回归和向量化)
    1、二分类  logistic回归是一个用于二分类(BinaryClassification)的算法。二分类就是输出结果y只有0和1两个标签(也有-1和1的情况)。以一个图像识别为例,例如识别猫,1代表猫,0代表不是猫。用y表示输出的结果标签。  在二分类问题中,目标是训练一个分类器,它以图片的特征向量x为输入,
  • 2024-09-13L1损失和L2损失
    L1损失和L2损失是两种常用的损失函数,用于衡量模型的预测值与真实值之间的误差。它们的主要区别在于对误差的处理方式不同,导致它们的性质和应用场景有所不同。1.L1损失(绝对值损失,MAE)L1损失计算的是预测值与真实值之间绝对误差的总和:[L_{\text{L1}}=|\mathbf{\epsi
  • 2024-09-13《深度学习》深度学习 框架、流程解析、动态展示及推导
    目录一、深度学习1、什么是深度学习2、特点3、神经网络构造1)单层神经元•推导•示例2)多层神经网络3)小结4、感知器神经网络的本质5、多层感知器6、动态图像示例1)一个神经元相当于下列状态: 2)两个神经元相当于下列所示:3)三个神经元相当于下图所示:7、多层感
  • 2024-09-12Yolo第Y2周:如何正确解读YOLO算法训练结果的各项指标
    目录Yolo第Y2周:如何正确解读YOLO算法训练结果的各项指标weights文件夹:最终的仙丹results.png:训练总图要略loss系列:打明牌的能力box_loss边界框损失:衡量画框cls_loss分类损失:判断框里的物体dfl_loss分布式焦点损失:精益求精验证集:学得好,不一定考得好精度和召回率:又准又全的考量r
  • 2024-09-11逻辑回归(Logistic Regression)
    许多问题需要将概率估算值作为输出。由于线性回归无法保证输出值表示概率(介于零和一之间),所以需要逻辑回归——它是一种极其高效的概率计算机制。那么逻辑回归如何保证其输出表示概率?1.逻辑回归如何计算概率?碰巧,有一族函数称为“逻辑函数”,其输出满足上述条件。标准逻辑函数/S
  • 2024-09-08Datawhale X李宏毅苹果书AI夏令营 第五期 深度学习入门 task3
      本次任务主要是了解模型在训练集或测试集上损失较大时的几大原因,了解改进的方向一、模型偏差   模型过于简单,未知参数函数的所有可能性的集合太小,让损失变低的函数不在模型可以描述的范围内;或者是模型的灵活性不够。这个时候重新设计一个模型,给模型更大的灵活性,将
  • 2024-09-032、实践方法论(Datawhale X 李宏毅苹果书 AI 夏令营)
    2、实践方法论(DatawhaleX李宏毅苹果书AI夏令营)在应用机器学习算法时,实践方法论能够帮助我们更好地训练模型。如果在Kaggle上的结果不太好,虽然Kaggle上呈现的是测试数据的结果,但要先检查训练数据的损失。2.1模型偏差有时候把模型设置的太过简单,使得函数的集合太小了,没
  • 2024-09-03Datawhale X 李宏毅苹果书 AI夏令营-深度学习入门班-task3-机器学习实践方法论
    引入在简单了解到机器学习的过程,以及模型函数的优化升级之后,我们需要根据一些方法论,解决模型实践过程中会遇到的问题,学会分析模型数据,按照正确的路径优化模型,减少测试误差(TestingLoss)。实践方法论整体框架下图是实践方法论的整体框架,下文会根据逻辑顺序一一介绍。step
  • 2024-09-03Datawhale X 李宏毅苹果书 AI夏令营 Task3-机器学习实践方法论
    在上一章介绍完机器学习模型后,我们接着讨论模型中可能存在的一些问题。首先我们需要明确一件事,就是Kaggle上的测试结果不好,可能有多个原因。第一,如果模型在运行训练模型时,所产生的损失就很大,那么有可能是模型偏差(modelbias)或优化(optimization)问题。第二,如果模型在运行训
  • 2024-09-03Datawhale X 李宏毅苹果书 AI夏令营-深度学习入门篇-Task3《深度学习详解》- 实践方法论
     核心学习目标:通过《深度学习详解》和李宏毅老师21年的机器学习课程视频,入门机器学习,并尝试学习深度学习,展开代码实践(选修)。该书保留了李宏毅老师公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节,包括卷积神经网络、Transform
  • 2024-09-02Pytorch损失函数模块
     直接调用定义就好了要使用的损失函数,但是nn.functional和nn.Module中都有损失函数,至于从哪个包中调用损失函数看你的需求,和图中所说一样,如果没有需要学习的参数就用nn.functional,如果有要学习更新的参数就用nn.Module。虽然是这样说,但是我看这个代码下面使用的就算是使用func
  • 2024-08-31Chapter2 监督学习
    参考学习书目:UnderstandingDeeplearning记录一下学习该书的过程。监督学习:监督学习模型是将一个或多个出入转化为一个或多个输出的方式。这个模型可以理解为一个数学公式,把输入放在公式里进行计算,得到的结果就是推理,而公式中包含一些参数,改变参数会改变计算的结果。而我
  • 2024-08-30TPAMI 2024 | 自适应区域特定损失:提高医学图像分割性能
    题目:AdaptiveRegion-SpecificLossforImprovedMedicalImageSegmentation自适应区域特定损失:提高医学图像分割性能作者:YizhengChen;LequanYu;Jen-YeuWang;NeilPanjwani;Jean-PierreObeid;WuLiu;LianliLiu;NataliyaKovalchuk摘要定义损失函数是神经