• 2024-07-02【机器人学】4-3.六自由度机器人动力学-拉格朗日方程【附MATLAB代码】
    上一章用了牛顿欧拉递推式的动力学方程求解了6自由度机器人的各关节动力。具体可以看我的上一篇博客。【机器人学】4-2.六自由度机器人动力学-牛顿欧拉递推式【附MATLAB代码】这篇文章主要介绍拉格朗日方程求解机械臂的动力学。        几乎所有的书上,在
  • 2024-07-02椭流线法设计配光器
    椭流线法设计配光器一、设计原理1、边光原理边光原理是非成像光学中的一个基础原理,其内容可以表述为:来自光源边缘的光线经过若干有序正则光学曲面后依然落在投射光斑的边缘,而来自光源内部的光线也将落在光斑内部。这里的边缘包含两层含义:①二维曲面边缘;②光束立体角边缘
  • 2024-06-24[题解]CF1716D Chip Move
    思路Part1这种题目应该能一眼看出是DP。我们令\(dp_{i,j}\)表示走到\(j\)这个位置,最后一步花了\(i\)的倍数。那么,我们的方程就很好想了:\(dp_{i,j}=\sum_{k=1}^{j-k\timesi\geq0}dp_{i-1,j-k\timesi}\)。因为,我们走到\(j\)的位置只能走\(i\)的倍
  • 2024-06-23[题解]CF1061C Multiplicity
    题意给定一个长度为\(n\)的序列\(\{a_1,a_2,\dots,a_n\}\)。现在要在\(a\)选出非空子序列\(\{b_1,b_2,\dots,b_m\}\),使得所有的\(i\in[1,m]\),都有\(b_i\bmodi=0\)。求能够选取\(b\)序列的方案数模\(10^9+7\)的值。思路定义\(dp_{i,j}\)表示在\(\{a_1,a
  • 2024-06-23[题解]AT_dp_w Intervals
    思路首先考虑较为普通的DP。定义\(dp_{i,j}\)表示在前\(i\)个位置中,最后一个1在\(j\)的最大分数,显然有:\[dp_{i,j}=\left\{\begin{matrix}\max_{k=1}^{i-1}\{dp_{i-1,k}\}+\sum_{l_k\leqj\wedger_k=i}{a_k}&(i=j)\\dp_{i-1,j}+\sum
  • 2024-06-23[题解]AT_arc079_c [ARC079E] Decrease (Judge ver
    思路首先,对于每一次操作,我们可以先找到最大值,然后对其操作。这样,我们可以得到单次操作时间复杂度\(\Theta(n)\)的代码,因为\(n\)很小,所以这道题时间复杂度的瓶颈在于操作的数量。那么,我们想到每一次找到最大值时,直接将其减到小于\(n\)。但是这样可能有一种问题,就是最大值
  • 2024-06-23应用数学与机器学习基础 - 最大似然估计篇
    序言最大拟然估计(MaximumLikelihoodEstimation,MLE)是统计学和机器学习领域中的一种重要参数估计方法。MLE的核心思想是基于给定的数据,找到一组参数值,使得这组参数生成观测数据的概率(即似然函数)达到最大。这样做的原因在于,如果某组参数能够使得观测数据出现的概率最大,那
  • 2024-06-23【2024全国赛前多校联考1】逆序对
    题意:给定\(n,K\)。对于\(i=1,2,3,\cdots,n\),你需要求出在所有逆序对数为\(k\)个的排列中\(i\)位置在小根笛卡尔树上的深度之和。数据范围:\(n\le300,K\le\dfrac{n(n-1)}{2}\)。思路:我们要求的是:\[\sum_{inv(p)=K}dep(i)\]这个\(dep(i)\)即\(i\)的祖先个数,考
  • 2024-06-22Diffusion Model-DDPM
      扩散过程是一个逐渐在数据上加噪的马尔科夫链,直到最终变成一个完全的噪声。而扩散模型就是一个使用变分推断训练的参数化马尔科夫链。如上图所示。学习的是一个reverseprocess。 前提条件:1.马尔可夫性质:当前的状态只与之前一个时刻的状态有关;2.前向和反向状态服从高
  • 2024-06-22ch13 半监督学习
    未标记样本在生产活动中,有样本的数目会很少(因为标记很昂贵),从LLM的成功来看,在unlabeleddata上训练模型是很有希望的。这种方法被称为半监督学习。半监督学习又分为纯半监督学习和直推学习纯半监督学习强调从unlabeleddata中学习出一个好的模型直推学习强调从labeled
  • 2024-06-22[题解]AT_abc255_d [ABC255D] ±1 Operation 2
    思路因为\(1\leqn,q\leq2\times10^5\),所以对于每一次查询的时间复杂度一定要达到\(\Theta(\logn)\),甚至于\(\Theta(1)\)。一个最简单的想法,我们先统计出整个序列\(a\)的和\(sum\),然后答案是\(|sum-x\timesn|\)。很显然,这个想法是错误的,因为对于\(a\)中只有
  • 2024-06-22[题解]AT_abc215_g [ABC215G] Colorful Candies 2
    思路定义\(vis_i\)表示数\(i\)在序列中出现的次数。如果我们选出\(k\)个数,答案就是(其中\(m\)表示\(\max(c_i)\)):\[\sum_{i=1}^m\frac{\binom{n}{x}-\binom{n-vis_i}{k}}{\binom{n}{x}}\]显然,我们只枚举序列中存在的元素,时间复杂度\(\Theta(n^2)\),过不
  • 2024-06-21三角函数
    三角函数相信大家都对三角函数有所听闻,今天我就来写一篇关于此的文章。(其中:\(\angleC=\Theta\))6种函数意义1.正弦函数:\(\text{sine}\)\[\sin\Theta=AB:AC\]即对边比斜边。2.余弦函数:\(\text{cosine}\)\[\cos\Theta=BC:AC\]即邻边比斜边。3.正切函数:\(
  • 2024-06-20[模式识别复习笔记] 第5章 贝叶斯分类器
    1.贝叶斯分类器1.1贝叶斯公式假设有一个试验的样本空间为\(S\),记\(B_1,B_2,\ldots,B_c\)为\(S\)的一个划分,\(A\)为试验的条件,且\(P(A)\not=0\),则:\[P(B_i|A)=\frac{P(B_i)P(A|B_i)}{P(A)}=\frac{P(B_i)P(A|B_i)}{\sum_{j=1}^{c}P(B_j)P(A|B_j)}\]\(P(B_i)
  • 2024-06-19算法基础
    计算复杂度复杂度在算法竞赛中对算法的选择有很大的帮助,利用复杂度可以简化思考,并帮助得到正确的算法。一般来讲,将基础的运算操作都当成常数复杂度即\(O(1)\),所以实际上在考虑的问题就是这种基础运算操作在数据规模极大的情况下的运算次数。常见的复杂度有对数多项式,也就是常
  • 2024-06-18文献总结:ON THE TRAINING AND GENERALIZATION OF DEEP OPERATOR NETWORKS(关于深度算子网络的训练和泛化)
    ONTHETRAININGANDGENERALIZATIONOFDEEPOPERATORNETWORKS(关于深度算子网络的训练和泛化)remark:相较于之前的文章,这篇更新了两个重要定理的证明!算子网络DeepONet由两个网络构成,即trunk网络和branch网络,通常是同时训练这两个网络,这相当于是在高维空间中解决复杂的优
  • 2024-06-1608_线性回归详解
    线性回归详解1、包导入与数据创建importnumpyasnpimportmatplotlibimportmatplotlib.pyplotasplt#绘图全局参数设置config={"font.family":'TimesNewRoman',"font.size":14,"font.serif":'Simsun',}matplo
  • 2024-06-16DDMP中的损失函数
    接着扩散模型简述训练扩散模型过程中用到的损失函数形式。完整的观察数据\(x\)的对数似然如下:\[\begin{aligned}\mathrm{log}\p(x)&\geq\mathbb{E}_{q_{\phi}(z_{1:T}|z_0)}\mathrm{log}\frac{p(z_T)\prod_{t=0}^{T-1}p_{\theta}(z_t|z_{t+1})}{\prod_{t=0}^{T-1}q_{\phi}
  • 2024-06-15PDF标准详解(三)—— PDF坐标系统和坐标变换
    之前我们了解了PDF文档的基本结构,并且展示了一个简单的helloworld。这个helloworld虽然只在页面中显示一个helloworld文字,但是包含的内容却是不少。这次我们仍然以它为切入点,来了解PDF的坐标系统以及坐标变换的相关知识图形学中二维图形变换中学我们学习了平面直角坐标系,x
  • 2024-06-15【BERT】详解BERT
    一、为什么要提出BERT?传统的RNN类模型,包括LSTM,GRU以及其他各种变体,最大的问题在于提取能力不足。在《WhySelf-Attention?ATargetedEvaluationofNeuralMachineTranslationArchitectures》中证明了RNN的长距离特征提取能力甚至不亚于Transformer,并且比CNN强。其主要问题
  • 2024-06-13点云特征描述子PFH与FPFH,详细推导过程(绝对能看懂!)
    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言原理示意图1、局部坐标系的建立2、描述子三元素具体求法。推导α
  • 2024-06-12实现EM算法的单次迭代过程
    编程要求根据提示,在右侧编辑器补充Begin-End段中的代码,完成em_single(priors,observations)函数。该函数需要完成的功能是模拟抛掷硬币实验并估计在一次迭代中,硬币A与硬币B正面朝上的概率。其中:init_values:硬币A与硬币B正面朝上的概率的初始值,类型为list,如[
  • 2024-06-11霍夫变换检测直线
    一、概念Hough直线检测的基本原理在于利用点与线的对偶性,即图像空间中的直线与参数空间中的点是一一对应的,因此将图像空间中的直线检测问题转换到参数空间中对点的检测问题,通过在参数空间里寻找峰值来完成直线检测任务。注意:参数空间是极坐标系,不是k和b组成的笛卡尔坐标系,目的
  • 2024-06-10「笔记」递归算法复杂度分析
    目录写在前面递归算法形式递归树大力求和主定理MasterTheorem典题1234写在最后写在前面可恶的算法分析与设计!!!递归算法形式对于一个输入规模为\(n\)的递归算法,每次均为将整个问题划分为\(a\)个规模为\(\frac{n}{b}\)的子问题,回溯时将所有子问题合并需要\(f(n)\)的时
  • 2024-06-10statistical_c02
    1.点估计1.1最大似然估计1.1.1似然函数1.1.2最大似然估计1.1.3最大似然估计例子1.2矩估计(MethodofMoments,MoM)1.2.1矩估计思想1.3估计量的评选标准2.区间估计2.1置信区间2.1.1置信区间引入2.1.2置信区间2.2单个正态总体的均值和方差的