mu
  • 2024-06-21[模式识别复习笔记] 第7章 聚类
    1.聚类给定样本集\(D=\{\bm{x}_1,\bm{x}_2,...,\bm{x}_n\}\),\(\bm{x}_i\in\mathbb{R}^d\)。通过聚类将\(n\)个样本划分为\(k\)个簇划分\(\mathcalC=\{C_1,C_2,...,C_k\}\),使得:\[C_i\capC_j=\emptyset,\\foralli\not=j\且\\
  • 2024-06-21[模式识别复习笔记] 第6章 PCA
    1.主成分分析PCAPCA:寻找最能够表示原始数据的投影方法,对数据进行降维,除去冗余的信息。——不考虑类别1.1PCA主要步骤计算散布矩阵\(S\)(或者样本的协方差矩阵)\[S=\sum_{i=1}^{n}(\bm{x}_i-\bm{\mu})(\bm{x}_i-\bm{\mu})^{\text{T}}\]其中\(\bm{\mu}=\frac
  • 2024-06-20[模式识别复习笔记] 第5章 贝叶斯分类器
    1.贝叶斯分类器1.1贝叶斯公式假设有一个试验的样本空间为\(S\),记\(B_1,B_2,\ldots,B_c\)为\(S\)的一个划分,\(A\)为试验的条件,且\(P(A)\not=0\),则:\[P(B_i|A)=\frac{P(B_i)P(A|B_i)}{P(A)}=\frac{P(B_i)P(A|B_i)}{\sum_{j=1}^{c}P(B_j)P(A|B_j)}\]\(P(B_i)
  • 2024-06-20CF1285F Classical?
    首先一个很自然的想法就是枚举钦定\(\gcd(a_i,a_j)\)的值为\(d\),然后再枚举所有\(d\)的倍数,钦定它们之间的\(\gcd=d\)时才统计贡献但这样本身浪费了不少时间在重复的枚举上,不妨换个思路,我们直接预先将每个数所有的约数都放入一个集合\(S\)显然\(|S|\le10^5\),而我们此时可以把条
  • 2024-06-19莫比乌斯反演学习笔记
    \[\]前段时间学习了莫比乌斯反演,现在补一篇学习笔记吧。Step1:莫比乌斯函数首先我们来定义一下莫比乌斯函数\(\mu\),它的取值如下:\[\mu(n)=\left\{ \begin{array}{ll} 1\qquad\quadn=1\\ (-1)^k\quadn=p_1p_2\cdotsp_k\\ 0\qquad\quadotherwise \end{array}
  • 2024-06-19狄利克雷卷积学习笔记
    0.更新upd2023.5.18更新了狄利克雷卷积新的一个性质,更新了常用结论的证明1.正文这玩意儿是这么说的:定义一个运算:$*$为狄利克雷卷积。他是干啥的呢?把两个数论函数进行一个运算。\[h(n)=(f*g)(n)=\sum_{d|n}f(d)g(\frac{n}{d})\]当\(f,g\)都是积性函数时,他们的狄利
  • 2024-06-19【笔记】概率论复习
    常用分布列名称分布列/密度函数期望方差二项分布\(B(n,p)\)\(P(X=k)=\binom{n}{k}p^k(1-p)^{n-k}\)\(np\)\(np(1-p)\)超几何分布\(nM/N\)几何分布\(P(X=k)=(1-p)^kp\)\(\frac{1}{p}\)\(\frac{1-p}{p^2}\)负二项分布Poisson分布\(\operator
  • 2024-06-18文献总结:ON THE TRAINING AND GENERALIZATION OF DEEP OPERATOR NETWORKS(关于深度算子网络的训练和泛化)
    ONTHETRAININGANDGENERALIZATIONOFDEEPOPERATORNETWORKS(关于深度算子网络的训练和泛化)remark:相较于之前的文章,这篇更新了两个重要定理的证明!算子网络DeepONet由两个网络构成,即trunk网络和branch网络,通常是同时训练这两个网络,这相当于是在高维空间中解决复杂的优
  • 2024-06-16DDMP中的损失函数
    接着扩散模型简述训练扩散模型过程中用到的损失函数形式。完整的观察数据\(x\)的对数似然如下:\[\begin{aligned}\mathrm{log}\p(x)&\geq\mathbb{E}_{q_{\phi}(z_{1:T}|z_0)}\mathrm{log}\frac{p(z_T)\prod_{t=0}^{T-1}p_{\theta}(z_t|z_{t+1})}{\prod_{t=0}^{T-1}q_{\phi}
  • 2024-06-16etcd watch 实现原理
    介绍在etcd中,watch是一个非常重要的特性,它可以让客户端监控etcd中的key或者一组key,当key发生变化时,etcd会通知客户端。本文将介绍etcdwatch的实现原理。etcdctlwatch/test#当/test的值发生变化时,会输出如下信息PUT/testaPUT/testbDELETE/test
  • 2024-06-15Python政府短期或长期债务李嘉图等价模型状态矩阵
  • 2024-06-11中心矩
    中心矩CentralMoment对于一维随机变量\(X\),其\(k\)阶中心矩\(\mu_k\)为相對於\(X\)之期望值的\(k\)阶矩:\(\mu_k=\mathrm{E}[(X-\mathrm{E}[X])^k]=\int_{-\infty}^{+\infty}(x-\mu)^kf(x)dx\)其中,\(\mu=\mathrm{E}[X]\)中心矩可以反应概率分布的特征,由于高阶中心矩仅
  • 2024-06-10statistical_c03
    -[1.1.1引例](#111-引例)-[1.1.2假设检验过程](#112-假设检验过程)-[1.1.3假设检验的两个错误](#113-假设检验的两个错误)假设检验1.1假设检验1.1.1引例1.1.2假设检验过程1.1.3假设检验的两个错误1.2单个正态总体的均值和方差的假设检验1.3两个正态总
  • 2024-06-10statistical_c02
    1.点估计1.1最大似然估计1.1.1似然函数1.1.2最大似然估计1.1.3最大似然估计例子1.2矩估计(MethodofMoments,MoM)1.2.1矩估计思想1.3估计量的评选标准2.区间估计2.1置信区间2.1.1置信区间引入2.1.2置信区间2.2单个正态总体的均值和方差的
  • 2024-06-10常微分方程
    虽然这部分在笔记本上只有短短三页,但总是记不清公式,所以写下来,随时参考规定\(\int{p(x)\mathrm{d}x}\)不含\(C\)一阶微分方程一、变量分离方程\[\frac{\mathrmdy}{\mathrmdx}=\frac{X(x)}{Y(y)}\]解:移项积分\(\int{Y(y)}\mathrm{d}y=\int{X(x)}\mathrm{d}x+C\)二、
  • 2024-06-02机器学习笔记(1): 梯度下降算法
    本文作为我看过#吴恩达机器学习系列课程的产物,并不适用于一无所知的学习者。在机器学习中,有三个很重要的函数:\(h_\theta(x)\)表示预测数据\(J(\theta)\)代价函数,表示预测和实际的差距,\(J(\theta)\ge0\),且\(J(\theta)\)值越小,差距越小。\(\frac{\delta}{\delta\t
  • 2024-06-01P6156 简单题 题解
    P6156简单题题解题目大意题目传送门给定\(n,k\),求\(\sum_{i=1}^n\sum_{j=1}^n(i+j)^k\gcd(i,j)\mu^2(\gcd(i,j))\)。\(1\leqn\leq5\times10^6\)题目分析先推导一波式子:\[\begin{aligned}ans&=\sum_{i=1}^n\sum_{j=1}^n(i+j)^k\gcd(i,j)\mu^2(\gcd(i,j))\\&=
  • 2024-06-01算法随笔——数论之莫比乌斯反演
    链接链接2链接3链接4前置知识:数论分块可以求形如:\(\sumf(i)g(\left\lfloorn/i\right\rfloor)\)的东西。原理如下:比如说求$\sum_{i=1}^{10}\left\lfloor10/i\right\rfloor$得到:10532211111可以发现有一些块的数值是一样的。具体一点可以发现\([l
  • 2024-05-31RC-u3 骰子游戏
    睿抗2023本科第三题//包含C++标准库,用于各种通用功能,如输入输出和排序#include<bits/stdc++.h>usingnamespacestd;//全局变量声明intn,k[6],level1,level2,t[6],f[32],r[32];//函数get_level:根据五个骰子的点数,返回当前获胜等级intget_level(ints[]){//首
  • 2024-05-28图像处理之计算物体的方向(C++)
    图像处理之计算物体的方向(C++)文章目录图像处理之计算物体的方向(C++)前言一、PCA获取物体主要方向1.原理2.代码实现二、Hu矩获取物体主要方向1.原理2.代码实现总结前言在图像处理中,物体的方向(倾斜角度)计算的应用非常常见,总结如下方法:PCA获得物体的主要方向以及Hu
  • 2024-05-27克里金代理模型Kriging
    Kriging笔记_代理模型由于Kriging模型不仅能对未知点的适应值进行预测,还能对其预测的不确定性进行估计。因此,其被广泛应用于代理模型辅助进化算法中,以解决昂贵单目标或多目标优化问题。使用下面的公式来估计未知点x的适应值:(均值+正态分布求解适应度值)
  • 2024-05-25【NOI2010】能量采集 题解
    【NOI2010】能量采集题解谨纪念我的第一道手推出来的莫反题。题目大意:已知\(n\),\(m\),求\(\sum\limits_{i=1}^n\sum\limits_{j=1}^m(2\cdot\gcd(i,j)-1)\)。首先变形一手:\[\sum\limits_{i=1}^n\sum\limits_{j=1}^m(2\cdot\gcd(i,j)-1)=2\sum\limits_{i=1}^n\sum\limits_{j=
  • 2024-05-25【智应数】Markow chains
    MarkowChain&StationaryDistributionDef(FiniteMarkowChain).Let\(\Omega\)beafinitesetofstates,\(\forallx,y\in\Omega,P(x,y)\ge0\)beatransitionfunction,i.e.,\(\sum\limits_{y\in\Omega}P(x,y)=1.\)AfiniteMarkowchain
  • 2024-05-22狄利克雷卷积与莫比乌斯反演
    狄利克雷卷积与莫比乌斯反演主要内容数论函数狄利克雷卷积积性函数莫比乌斯反演数论分块提要\(a\botb\)表示\(a\)与\(b\)互质。数论函数数论函数是一类定义域是正整数的函数,可以类比数列。加法,数乘比较简单,略过。狄利克雷卷积定义两个数论函数的狄利克雷卷
  • 2024-05-21莫比乌斯反演即狄利克雷卷积速通
    莫比乌斯反演速通前言由于请假错过了讲课,所以莫反是我第一个需要自学的难度不小的数学知识。自学的过程的狼狈的,旁边也曾是自学的czn告诉我如果学会“狄利克雷卷积”就可以对“莫比乌斯反演”的理解进行“降维打击”。他还十分热心地带着我速通了一遍狄卷与莫反。一知半解,就