• 2024-09-3050种动量指标和趋势跟踪指标
    以下是你列出的技术指标的详细介绍:Accumulation/DistributionLine(ADL)ADL是一种基于成交量的指标,用于衡量资金流入和流出股票的情况。它通过累积每日的资金流量来反映市场的买卖压力。AroonAroon指标用于识别趋势的变化和趋势的强度。它包括AroonUp和AroonDown
  • 2024-09-24【深度学习】03-神经网络 3-3 梯度下降的优化方法-动量算法Momentum
    常规的梯度下降算法中,会遇到平缓区域,碰到鞍点,碰到局部最小值(截止当前无解),因此为了解决这个问题,我们需要优化传统的梯度下降算法。动量算法(Momentum)是梯度下降算法的一种优化方法,旨在解决传统梯度下降容易陷入局部最小值或在鞍点附近震荡的问题。动量算法通过引入一个“动
  • 2024-09-01#Datawhale X 李宏毅苹果书 AI夏令营#3.1&3.2局部极小值与鞍点&批量和动量
    本章介绍深度学习常见的概念,主要包括3.1局部极小值与鞍点;3.2批量和动量。知识点讲解:3.1局部极小值和鞍点我们在做优化的时候,有时候会发现随着参数不断更新,函数的损失值却不再下降的现象,但这个优化结果离我们想要的理想值还差距很大。这是什么原因呢?接下来我们就研究这个问
  • 2024-08-27Datawhale X 李宏毅苹果书 AI夏令营 Task1.2 笔记
    《深度学习详解》3.2节中关于批量和动量的主要内容总结: 批量的概念:在深度学习训练过程中,数据不是一次性全部用于计算梯度,而是被分成多个小批量(batch),每个批量包含一定数量的数据。每个批量的损失函数用于计算梯度并更新模型参数。批量大小对梯度下降法的影响:两种极端情况:
  • 2024-08-06动量优化算法:加速机器学习模型训练的秘密武器【动量】
    在机器学习和深度学习的训练过程中,优化算法扮演着至关重要的角色。动量优化算法是一种强大的技术,它能够加速模型训练,并帮助我们更快地找到最优解。这篇博客将详细介绍动量优化算法,力求让每一位读者都能轻松理解它的原理和优势。什么是动量优化算法?动量(Momentum)来源于物理
  • 2024-08-02MoCo论文详解
    文章目录前言一、对比学习简介二、MoCo理论三、MoCo伪代码实现四、疑问总结前言 MoCo是Facebook团队在2020年提出的一篇论文,论文全称是《MomentumContrastforUnsupervisedVisualRepresentationLearning》通过动量对比进行无监督的视觉表征学习,MoCo就是Moment
  • 2024-07-31物理之美系列之 计算劈柴所需的力和功率
    简介让我们从物理学开始。当大锤的头部击中木头时,会发生许多奇妙的物理现象。首先,动量原理。该原理表明,作用在物体上的净力会改变其动量。哦,但动量是什么?推荐文章《关于人工智能背后数学的10个深刻答案它知识渊博、充满自信,在很多方面表现得像人类。但驱动人工智能
  • 2024-07-15【文化课学习笔记】【物理】动量
    【物理】动量冲量基础概念定义力在时间上的积累。冲量一般用字母\(I\)表示。公式冲量\(I\)的表达式如下:\[I=F\cdott\]由于\(F\)的单位是\(\puN\),\(t\)的单位是\(s\),所以冲量的单位是\(\pu{N*s}\)。根据表达式可知,冲量是矢量,方向与\(F\)相同。注意:冲
  • 2024-06-17Adam优化算法
    Adam优化算法Adam(AdaptiveMomentEstimation)是一种用于训练深度学习模型的优化算法,由DiederikP.Kingma和JimmyBa在2014年提出。Adam结合了动量和自适应学习率的方法,具有高效、稳定和适应性强的特点,被广泛应用于各种深度学习任务中。Adam优化算法的基本思想Adam的核心思
  • 2024-06-12龙哥量化:通达信动量曲线副图,通过动量,捕捉波段介入点
    如果您需要代写公式,请联系我。龙哥QQ:591438821龙哥微信:Long622889VAR2:=LLV(LOW,10);VAR3:=HHV(HIGH,25);阶段卖出:3.2,COLORC6C600;STICKLINE(C>0,3.2,3.2,0.5,1),COLOR404040;清仓卖出:3.5,COLORWHITE;STICKLINE(C>0,3.5,3.5,5,1),COLOR404040;强弱分界线:1.75,COLO
  • 2024-04-23PyTorch中的优化器
    SDG优化器参数说明:(引用:https://developer.baidu.com/article/detail.html?id=2705103)学习率(LearningRate):学习率决定了模型权重更新的步长。较大的学习率可能导致模型训练不稳定,而较小的学习率可能导致训练速度缓慢。通常,你可以通过尝试不同的学习率来找到最佳值。默认情况下,学
  • 2024-02-26优化方法总结
    个人学习使用,内容来源于网络,侵权删神经网络反向传播时参数朝着最小化损失的方向前进,确切说,是朝着梯度方向更新。设神经网络参数是\(W\),学习率是\(\alpha\),网络代表的函数是\(L(W)\),那么参数更新公式可表示为:$W=W-\alpha*\bigtriangledown_WL(W)$在深度学习中,有三种最基本的梯
  • 2024-01-17神经网络优化篇:详解动量梯度下降法(Gradient descent with Momentum)
    动量梯度下降法还有一种算法叫做Momentum,或者叫做动量梯度下降法,运行速度几乎总是快于标准的梯度下降算法,简而言之,基本的想法就是计算梯度的指数加权平均数,并利用该梯度更新的权重。例如,如果要优化成本函数,函数形状如图,红点代表最小值的位置,假设从这里(蓝色点)开始梯度下降法,如果
  • 2023-11-17动量编码器
    自监督学习自监督学习属于无监督学习范式的一种,不需要人工标注的类别信息,直接利用数据本身作为监督信息。自监督学习分为自监督生成式学习和自监督对比学习。自监督生成式学习的方法以图片为例,自监督学习可以是将图片的位置信息,旋转角度,以及图片在视频帧中的顺序作为标签。比
  • 2023-10-07梯度下降、Mini-Batch梯度下降、动量梯度下降、Adam
    梯度下降、Mini-Batch梯度下降、动量梯度下降以及Adam都是用于训练机器学习模型的优化算法。梯度下降(GradientDescent):梯度下降是一种优化算法,用于调整模型参数以最小化损失函数。想象一下你站在山上,想要找到山底的最低点。你每一步都沿着最陡峭的下坡方向走,直到到达最低点
  • 2023-09-15机器学习从入门到放弃:如果优化让机器学习的更好?
    一、前言在真正的工程应用中,模型训练也许更为重要,特别是对于生成式模型来说,无论是NLP领域或者GNN领域所产生的内容是否适用,在直觉上我们可以可以清晰的辨别。但是具体在模型上我们怎么调整就是一个类似黑盒的概念,我们一般通过更多的特征向量,和更深层次的神经网络架构来实
  • 2023-08-15optim.SGD
    链接:https://www.zhihu.com/question/585468191/answer/2905219147optim.SGD是PyTorch中的一个优化器,其实现了随机梯度下降(StochasticGradientDescent,SGD)算法。在深度学习中,我们通常使用优化器来更新神经网络中的参数,以使得损失函数尽可能地小。在PyTorch中使用optim.SGD优化
  • 2023-08-10行业ETF动量轮动策略
    6月底回测了EarlETF大佬的《行业动量策略》,结果确实不错,而且最近两年的超额比较高。但是今年没有跑过沪深300。最终,我决定还是不上实盘。因为我对行业动量因子的可持续性,报有疑惑。(BTW,下次不确定可持续性的策略,自己就先不要回测了。浪费精力……)
  • 2023-08-10基于RiceQuant的期货多因子策略实现(二)
    前言介绍期货交易经典理论介绍期货因子大类分类通过构建时序与截面因子,构建多空组合。交易理论现货溢价理论(套保者影响)对冲压力假说(期货价格由现货价格和对冲需求共同决定)存储理论(商品的存储影响现货和期货之间的价格关系,存储成本低,市场预期未来价格上涨时,商人会选择购
  • 2023-06-08对于动量法,adagrad,RMSProp,Adam的理解
    对于adagrad的理解“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化_哔哩哔哩_bilibiliAdaGrad对学习率进行了一个约束,对于经常更新的参数,我们已经积累了大量关于它的知识,不希望被单个样本影响太大,希望学习速率慢一些;对于偶尔更
  • 2023-04-06游戏模拟——Position based dynamics
    目录Verlet积分基本积分方法Verlet算位置Verlet算速度PBD基于力的方法解碰撞过冲问题基于位置的方法解碰撞算法流程求解器借用的思想关于动量守恒约束投影简单约束举例计算机图形中动态系统模拟最流行的方法是基于力的。累积内部和外部力量,根据牛顿的第二个运动定律计算加速度
  • 2023-03-13优化算法
    梯度更新:随机梯度,minbath梯度,全量梯度动量法:引入一阶动量,动量法是为了解决传统的梯度下降算法收敛很慢的问题。相当于每次在进行参数更新的时候,都会将之前的速度考虑进来,
  • 2023-02-05“居高临下,势如破竹”-参数的动量更新方法​
    1.使用批训练的原因​在“山外有山比山高”-为什叫深度学习一文中,介绍了实际训练深度学习模型时,可能需要将训练样本随机划分成若干批次(Batch),每个批次包含若干样本(Batc
  • 2022-11-26使用Python进行交易策略和投资组合分析
    我们将在本文中衡量交易策略的表现。并将开发一个简单的动量交易策略,它将使用四种资产类别:债券、股票和房地产。这些资产类别的相关性很低,这使得它们成为了极佳的风险平衡