ETA
  • 2024-11-012 The Statistics of Price Changes
    金融市场的RandomWalkModel以及stylizedfacts.阅读Trades,QuotesandPrices的第二章。数学,统计学,机器学习,人们总是用各种各样的办法研究金融市场。OriginallyPostedat:https://clouder0.com/zh-cn/posts/price-change-statistics/TheRandomWalkModel一个相当
  • 2024-10-30【EI复现】基于深度强化学习的微能源网能量管理与优化策略研究(Python代码实现)
  • 2024-10-30【EI复现】基于深度强化学习的微能源网能量管理与优化策略研究(Python代码实现)
  • 2024-10-28【EI复现】基于深度强化学习的微能源网能量管理与优化策略研究(Python代码实现)
  • 2024-09-28精通推荐算法31:行为序列建模之ETA — 基于SimHash实现检索索引在线化
    1 行为序列建模总体架构2SIM模型的不足和为什么需要ETA模型SIM实现了长周期行为序列的在线建模,其GSU检索单元居功至伟。但不论Hard-search还是Soft-search,都存在如下不足:GSU检索的目标与主模型不一致。Hard-search通过类目属性来筛选历史行为,但不同类目不代表相关度低,比
  • 2024-08-31Datawhale X 李宏毅苹果书AI夏令营 Task2打卡
    3.3自适应学习率当梯度大小不再下降时,并不代表梯度本身已经变得很小接近于0了,有可能是梯度在波谷之间来回震荡。原始的梯度下降在很简单的误差表面上都不一定能够达到临界点,因此引入自适应学习率。3.3.1AdaGrad传统的梯度下降更新参数\(\theta_t^i\)的过程是\[\theta_{t+
  • 2024-08-29Spark MLlib模型训练—回归算法 GLR( Generalized Linear Regression)
    SparkMLlib模型训练—回归算法GLR(GeneralizedLinearRegression)在大数据分析中,线性回归虽然常用,但在许多实际场景中,目标变量和特征之间的关系并非线性,这时广义线性回归(GeneralizedLinearRegression,GLR)便应运而生。GLR是线性回归的扩展,能够处理非正态分布的目标
  • 2024-08-27AdaBoost
    提升方法提升方法就是从弱学习算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强分类器。大多数的提升方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据分布调用弱学习算法学习一系列弱分类器。在每一轮如何改变训练数
  • 2024-08-27优化器
    优化器目录优化器SGDAdagradAdadeltaRMSpropAdamAdamWSGD随机梯度下降问题:训练轨迹会呈现锯齿状,这无疑会大大延长训练时间。同时,由于存在摆动现象,学习率只能设置的较小,才不会因为步伐太大而偏离最小值。Momentum:将一段时间内的梯度向量进行了加权平均,分别计算得到梯度更新过
  • 2024-08-19合成孔径雷达回波生成,距离多普勒算法前提
    “革命的道路,同世界上一切事物活动的道路一样,总是曲折的,不是笔直的。”1.1回波生成1.1.1工作模式正侧式条带SAR1.1.2参数设置相关参数大小带宽150MHz中心频率3.0GHz载机速度200m/s载机高度10km下视角45°脉冲重复频率(PRF)300Hz脉冲宽度4.0
  • 2024-08-18环 Z[i] 与 Z[ω] 的定义与性质小记
    今日推歌:Lamia-BlackY(这下真成今日推歌了,不会打交互怎么办)话说大陆街机音游太少了吧,iidx,sdvx,ongeki基本和没有一样(按理来说ongeki的抽卡模式能赚大钱啊),chunithm和maimai通常就不到3台,也就部分机厅能达到3台,达到5台的机厅我似乎都去过,国服chunithm和maimai更
  • 2024-08-17Lucas-Washburn + Cassie-Baxter
    如果粉末间隙内壁的表面能随着润湿而降低,则液体会向管内上升渗入(\(\gamma_{\text{SL}}<\gamma_{\text{SO}}\))。考虑液体上升的驱动力来自于附加压力,则由弯曲表面附加压力Young-Laplace方程,驱动力为:\[F=pS=\frac{2\gamma\cos\theta}R\piR^2=2\piR\gamma\cos\theta\]间隙内的
  • 2024-07-18优化与收敛率小记
    目录概基本的设定非凸优化凸优化强凸优化概近来对优化和收敛速度有了一些新的感悟,特此一记.这些感悟有的来自博客(如here),有的来自书籍.以往只是套一些收敛的模板,这里我会讲一下如何从几何的角度去理解这些收敛性.基本的设定假设我们希望优化:\[\tag{1}\min_{x
  • 2024-07-18LED与Micro LED显示技术
    LED与MicroLED显示技术LED显示原理参考资料:1.视频资料2.PPT文档1LED工作原理1.1LED的发光原理LED是PN节中载流子复合形成激子,最终激子发光导致的。\[\lambda(nm)=\frac{1240}{E_{g}(eV)}\]空穴和电子在复合时的能隙差(取决于材料)将决定最终发出光的波长的长短,具体的
  • 2024-06-19[模式识别复习笔记] 第3章 线性判别函数
    1.线性判别函数1.1定义在\(d\)维特征空间中,有线性判别函数:\[G(x)=w^{\text{T}}x+b\]其中,\(w=[w_1,w_2,\ldots,w_d]^T\)称为权值向量,\(b\)称为偏置,都是需要学习的参数。\(G(x)=0\)为决策边界方程。PS:只能解决二分类问题。1.2几何意义\(w\)为超
  • 2024-06-18【EI复现】基于深度强化学习的微能源网能量管理与优化策略研究(Python代码实现)
  • 2024-03-292013年认证杯SPSSPRO杯数学建模A题(第一阶段)护岸框架全过程文档及程序
    2013年认证杯SPSSPRO杯数学建模A题护岸框架原题再现:  在江河中,堤岸、江心洲的迎水区域被水流长期冲刷侵蚀。在河道整治工程中,需要在受侵蚀严重的部位设置一些人工设施,以减弱水流的冲刷,促进该处泥沙的淤积,以保护河岸形态的稳定。  现在常用的设施包括四面六边透水框
  • 2024-03-24基础概率论(李贤平)选题
    概率论选题一、基本概念随机现象概率古典概型Newton二项式定理几何概率概率空间条件概率Bayes公式独立性伯努利试验伯努利分布:只进行一次伯努利试验二项分布:\(n\)重伯努利试验中事件\(A\)出现\(k\)次的概率\(b(k;n,p)=\binomnkp^kq
  • 2024-03-22常见优化器对比:梯度下降法、带动量的梯度下降法、Adagrad、RMSProp、Adam
    系列文章目录李沐《动手学深度学习》线性神经网络线性回归李沐《动手学深度学习》优化算法(相关概念、梯度下降法、牛顿法)李沐《动手学深度学习》优化算法(经典优化算法)文章目录系列文章目录一、梯度下降法(一)基本思想(二)梯度下降法的三种不同形式(三)优缺点二、带动量的
  • 2024-03-22数值分析复习:样条插值
    文章目录样条插值1.样条函数1.1泛函极小解和三次样条函数1.2S(x
  • 2024-03-13【习题】随机变量与分布函数
    [T0301]设随机变量\(\xi\)取值于\([0,1]\),若\(P\{x\le\xi<y\}\)只与长度\(y-x\)有关(对一切\(0\lex\ley\le1\)).试证\(\xi\simU[0,1]\).证不妨设\(P\{x\le\xi<y\}=f(y-x)\).令\(x=0\),则有\(P\{0\le\xi<y\}=f(y)\).注意到对\(\for
  • 2023-12-21TFT架构学习
    1.TFT架构图2.各成分概述1)门控机制2)变量选择网络3)静态协变量编码器4)时间处理5)通过分位数预测2.1门控机制-门控残差网络GRN\[GRN_{\omega}(a,c)=LayerNorm(a+GLU_{\omega}(\eta_{1}))\\\eta_{1}=W_{1,\omega}\eta_2+b_{1,\omega}\\\eta_2=ELU(W_{2,\omega}a+W_{3,\ome
  • 2023-12-12SD采样方式区别
    目录stablediffusion不同采样方式的区别EulerEuleraLMSheunDPM2DPM2aDPM++2SaDPM++2MDPM++SDEDPMfastDPMadaptiveKarras后缀DDIMPLMSUniPCeta参数sigma参数采样方法小结超分辨率Hires.fix和UpscalerESRGAN系列[13]SwinIR_4x[14]LDSR超分模型小结:seed和CFGScaleClipskip
  • 2023-10-05感性理解梯度下降 GD、随机梯度下降 SGD 和 SVRG
    MLTheory太魔怔了!!!!!从微积分课上我们学到对一个\(\mathscrC^2\)函数,其二阶泰勒展开的皮亚诺余项形式\[f(\bmw')=f(\bmw)+\langle\nablaf(\bmw),\bmw'-\bmw\rangle+o(\|\bmw'-\bmw\|)\]这说明只要\(\bmw'\)和\(\bmw\)挨得足够接近,我们就可
  • 2023-09-08Machine learning note(1)
    注:本笔记不给出完整解释正规方程设\(z=\theta^{T}x\)设损失函数为\(J(\theta)\),求令\(\frac{\partialJ}{\partial\theta}=0\)的\(\theta\)由此得出最优的\(\theta\)牛顿迭代回顾一下梯度下降:\(\theta'=\theta-\alpha*\frac{\partialJ}{\partial\theta}\)另一种方法是牛