ETA
  • 2024-08-27AdaBoost
    提升方法提升方法就是从弱学习算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强分类器。大多数的提升方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据分布调用弱学习算法学习一系列弱分类器。在每一轮如何改变训练数
  • 2024-08-27优化器
    优化器目录优化器SGDAdagradAdadeltaRMSpropAdamAdamWSGD随机梯度下降问题:训练轨迹会呈现锯齿状,这无疑会大大延长训练时间。同时,由于存在摆动现象,学习率只能设置的较小,才不会因为步伐太大而偏离最小值。Momentum:将一段时间内的梯度向量进行了加权平均,分别计算得到梯度更新过
  • 2024-08-19合成孔径雷达回波生成,距离多普勒算法前提
    “革命的道路,同世界上一切事物活动的道路一样,总是曲折的,不是笔直的。”1.1回波生成1.1.1工作模式正侧式条带SAR1.1.2参数设置相关参数大小带宽150MHz中心频率3.0GHz载机速度200m/s载机高度10km下视角45°脉冲重复频率(PRF)300Hz脉冲宽度4.0
  • 2024-08-18环 Z[i] 与 Z[ω] 的定义与性质小记
    今日推歌:Lamia-BlackY(这下真成今日推歌了,不会打交互怎么办)话说大陆街机音游太少了吧,iidx,sdvx,ongeki基本和没有一样(按理来说ongeki的抽卡模式能赚大钱啊),chunithm和maimai通常就不到3台,也就部分机厅能达到3台,达到5台的机厅我似乎都去过,国服chunithm和maimai更
  • 2024-08-17Lucas-Washburn + Cassie-Baxter
    如果粉末间隙内壁的表面能随着润湿而降低,则液体会向管内上升渗入(\(\gamma_{\text{SL}}<\gamma_{\text{SO}}\))。考虑液体上升的驱动力来自于附加压力,则由弯曲表面附加压力Young-Laplace方程,驱动力为:\[F=pS=\frac{2\gamma\cos\theta}R\piR^2=2\piR\gamma\cos\theta\]间隙内的
  • 2024-07-18优化与收敛率小记
    目录概基本的设定非凸优化凸优化强凸优化概近来对优化和收敛速度有了一些新的感悟,特此一记.这些感悟有的来自博客(如here),有的来自书籍.以往只是套一些收敛的模板,这里我会讲一下如何从几何的角度去理解这些收敛性.基本的设定假设我们希望优化:\[\tag{1}\min_{x
  • 2024-07-18LED与Micro LED显示技术
    LED与MicroLED显示技术LED显示原理参考资料:1.视频资料2.PPT文档1LED工作原理1.1LED的发光原理LED是PN节中载流子复合形成激子,最终激子发光导致的。\[\lambda(nm)=\frac{1240}{E_{g}(eV)}\]空穴和电子在复合时的能隙差(取决于材料)将决定最终发出光的波长的长短,具体的
  • 2024-06-19[模式识别复习笔记] 第3章 线性判别函数
    1.线性判别函数1.1定义在\(d\)维特征空间中,有线性判别函数:\[G(x)=w^{\text{T}}x+b\]其中,\(w=[w_1,w_2,\ldots,w_d]^T\)称为权值向量,\(b\)称为偏置,都是需要学习的参数。\(G(x)=0\)为决策边界方程。PS:只能解决二分类问题。1.2几何意义\(w\)为超
  • 2024-06-18【EI复现】基于深度强化学习的微能源网能量管理与优化策略研究(Python代码实现)
  • 2024-03-292013年认证杯SPSSPRO杯数学建模A题(第一阶段)护岸框架全过程文档及程序
    2013年认证杯SPSSPRO杯数学建模A题护岸框架原题再现:  在江河中,堤岸、江心洲的迎水区域被水流长期冲刷侵蚀。在河道整治工程中,需要在受侵蚀严重的部位设置一些人工设施,以减弱水流的冲刷,促进该处泥沙的淤积,以保护河岸形态的稳定。  现在常用的设施包括四面六边透水框
  • 2024-03-24基础概率论(李贤平)选题
    概率论选题一、基本概念随机现象概率古典概型Newton二项式定理几何概率概率空间条件概率Bayes公式独立性伯努利试验伯努利分布:只进行一次伯努利试验二项分布:\(n\)重伯努利试验中事件\(A\)出现\(k\)次的概率\(b(k;n,p)=\binomnkp^kq
  • 2024-03-22常见优化器对比:梯度下降法、带动量的梯度下降法、Adagrad、RMSProp、Adam
    系列文章目录李沐《动手学深度学习》线性神经网络线性回归李沐《动手学深度学习》优化算法(相关概念、梯度下降法、牛顿法)李沐《动手学深度学习》优化算法(经典优化算法)文章目录系列文章目录一、梯度下降法(一)基本思想(二)梯度下降法的三种不同形式(三)优缺点二、带动量的
  • 2024-03-22数值分析复习:样条插值
    文章目录样条插值1.样条函数1.1泛函极小解和三次样条函数1.2S(x
  • 2024-03-13【习题】随机变量与分布函数
    [T0301]设随机变量\(\xi\)取值于\([0,1]\),若\(P\{x\le\xi<y\}\)只与长度\(y-x\)有关(对一切\(0\lex\ley\le1\)).试证\(\xi\simU[0,1]\).证不妨设\(P\{x\le\xi<y\}=f(y-x)\).令\(x=0\),则有\(P\{0\le\xi<y\}=f(y)\).注意到对\(\for
  • 2023-12-21TFT架构学习
    1.TFT架构图2.各成分概述1)门控机制2)变量选择网络3)静态协变量编码器4)时间处理5)通过分位数预测2.1门控机制-门控残差网络GRN\[GRN_{\omega}(a,c)=LayerNorm(a+GLU_{\omega}(\eta_{1}))\\\eta_{1}=W_{1,\omega}\eta_2+b_{1,\omega}\\\eta_2=ELU(W_{2,\omega}a+W_{3,\ome
  • 2023-12-12SD采样方式区别
    目录stablediffusion不同采样方式的区别EulerEuleraLMSheunDPM2DPM2aDPM++2SaDPM++2MDPM++SDEDPMfastDPMadaptiveKarras后缀DDIMPLMSUniPCeta参数sigma参数采样方法小结超分辨率Hires.fix和UpscalerESRGAN系列[13]SwinIR_4x[14]LDSR超分模型小结:seed和CFGScaleClipskip
  • 2023-10-05感性理解梯度下降 GD、随机梯度下降 SGD 和 SVRG
    MLTheory太魔怔了!!!!!从微积分课上我们学到对一个\(\mathscrC^2\)函数,其二阶泰勒展开的皮亚诺余项形式\[f(\bmw')=f(\bmw)+\langle\nablaf(\bmw),\bmw'-\bmw\rangle+o(\|\bmw'-\bmw\|)\]这说明只要\(\bmw'\)和\(\bmw\)挨得足够接近,我们就可
  • 2023-09-08Machine learning note(1)
    注:本笔记不给出完整解释正规方程设\(z=\theta^{T}x\)设损失函数为\(J(\theta)\),求令\(\frac{\partialJ}{\partial\theta}=0\)的\(\theta\)由此得出最优的\(\theta\)牛顿迭代回顾一下梯度下降:\(\theta'=\theta-\alpha*\frac{\partialJ}{\partial\theta}\)另一种方法是牛
  • 2023-08-12【RL】第6课-随机近似与随机梯度下降-
    第6课-随机近似与随机梯度下降6.1MotivatingexamplesMeanEstimationRevisitthemeanestimationproblem:Considerarandomvariable\(X\).Ouraimistoestimate\(\mathbb{E}[X]\).Supposethatwecollectedasequenceofiidsamples\(\left\{x_i\right\}_{i
  • 2023-07-19白话机器学习笔记(一)学习回归
    最小二乘法定义模型表达式:\(f_\theta(x)=\theta_0+\theta_1x\)(常用\(\theta\)表示未知数、\(f_\theta(x)\)表示含有参数\(\theta\)并且和变量\(x\)相关的函数)目标函数假设有\(n\)个训练数据,那么它们的误差之和可以这样表示,这个表达式称为目标函数。\(E(\theta)=\frac12\sum
  • 2023-07-18Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
    目录概符号说明RAGRetriever:DPRGenerator:BARTLewisP.andPerezE.,etal.Retrieval-augmentedgenerationforknowledge-intensivenlptasks.NIPS,2020.概RAG:赋予模型检索的能力.符号说明\(\bm{x}\),输入序列;\(\bm{y}\),输出序列,长度为\(N\);RAG
  • 2023-07-13TOPOLOGICAL EXPERIENCE REPLAY
    发表时间:2022(ICLR2022)文章要点:这篇文章指出根据TDerror来采样是低效的,因为估计TDerror的targetQ就不准(sinceastate'scorrectQ-valuepreconditionsontheaccuratesuccessorstates'Q-value.)。为了解决这个问题,文章提出TopologicalExperienceReplay(TER),将experie
  • 2023-07-06走近高德驾车ETA(预估到达时间)
    1.什么是驾车ETA临近节假,长途自驾返乡的你是否曾为无法预知路上到底有多堵而纠结?通勤上班,作为有车一族的你是否在为路况变幻莫测的早晚高峰而烦恼?外出旅行,赶火车、赶飞机的你是否还在为担心错过班次而焦虑?不要慌,高德的驾车ETA帮你预知未来路况,让每个用户轻松成为“时间管理大师
  • 2023-06-29Celery
    celery执行异步任务,延迟任务和定时任务执行异步任务-导入异步任务的函数-函数.delay(参数)执行延迟任务fromdatetimeimportdatetime,timedeltaeta=datetime.utcnow()+timedelta(seconds=10)导入异步任务的函数函数.apply_async(args=['122345421',44
  • 2023-05-16统计学习方法笔记-感知机学习方法
    感知机(Perceptron)1.感知机模型1.1感知机定义​ 输入空间$\mathcal{X}\subseteq\mathbb{R}^n$,输出空间\(\mathcal{Y}\)={+1,-1};​ 输入\(x\in\mathcal{X}\)表示的实例的特征向量,对应于输入空间的点,输出\(y\in\mathcal{Y}\)表示的实例的类别;由输入空间到输出空间的