• 2024-06-30贝叶斯回归器概览
    序言线性回归是机器学习中一种常用的回归方法。线性回归基于这样的假设,即基础数据是正态分布的,并且所有相关的预测变量与结果具有线性关系。但在现实世界中,这并不总是可能的,它将遵循这些假设,贝叶斯回归可能是更好的选择。贝叶斯回归使用关于数据的先验信念或知识来“学习
  • 2024-06-20愚蠢的在线法官
    给一个官解的简单理解,没有官解的严谨证明。同官解,用\(i\toj\)表示\(i\)是\(j\)的祖先。行列式的处理手法并不多,常规的手拆并不奏效,我们考虑化用\(\gcd\)矩阵的求法:定义矩阵\(C[i][j]=[j\toA_i],D[i][j]=[i\toA_j](v_i-v_{fa_i})\),当\(k=n\)的时候\(C,D\)都是方
  • 2024-06-19计算理论导论
    计算模型DFA(确定性有限状态自动机)一个DFA被如下五元组定义\((Q,\Sigma,\delta,q_0,F)\),\(Q\)是状态集\(\Sigma\)是输入字符集\(\delta:Q\times\Sigma\toQ\)是转移函数\(q_0\)是起始状态\(F\subseteqQ\)是接受状态集NFA(非确定性有限状态自动机)一个NFA被
  • 2024-06-19【笔记】概率论复习
    常用分布列名称分布列/密度函数期望方差二项分布\(B(n,p)\)\(P(X=k)=\binom{n}{k}p^k(1-p)^{n-k}\)\(np\)\(np(1-p)\)超几何分布\(nM/N\)几何分布\(P(X=k)=(1-p)^kp\)\(\frac{1}{p}\)\(\frac{1-p}{p^2}\)负二项分布Poisson分布\(\operator
  • 2024-06-17不用群论的 Polya
    如果没有学过正经的带群论的\(Polya\),那这一篇文章也许是一个简单的入门;如果学过正经的\(Polya\),这一篇也可能提供一个感性理解的方法(因为除了不用群论也没有什么好处)。Burnside一道组合题一般会说两个图等价当且仅当可以通过重编号使之全等两个环等价当且仅当可以通过旋转
  • 2024-06-16DDMP中的损失函数
    接着扩散模型简述训练扩散模型过程中用到的损失函数形式。完整的观察数据\(x\)的对数似然如下:\[\begin{aligned}\mathrm{log}\p(x)&\geq\mathbb{E}_{q_{\phi}(z_{1:T}|z_0)}\mathrm{log}\frac{p(z_T)\prod_{t=0}^{T-1}p_{\theta}(z_t|z_{t+1})}{\prod_{t=0}^{T-1}q_{\phi}
  • 2024-06-15Python政府短期或长期债务李嘉图等价模型状态矩阵
  • 2024-06-11浅论殖民者对父系社会在智利地区发展的影响
    似了喵。整理这b玩意屁用没有捏。\[\newcommand{\bf}{\mathbf}\]I.高维几何省流:体积集中于shell。体积集中于equator。Gau-Ann-Thm:高维Gaussian分布集中于\(\sqrtd\)附近。RandomProjectionTheorem:随机取向量并投影,大概率保距离。\((1-\epsilon)\)的部
  • 2024-06-10statistical_c02
    1.点估计1.1最大似然估计1.1.1似然函数1.1.2最大似然估计1.1.3最大似然估计例子1.2矩估计(MethodofMoments,MoM)1.2.1矩估计思想1.3估计量的评选标准2.区间估计2.1置信区间2.1.1置信区间引入2.1.2置信区间2.2单个正态总体的均值和方差的
  • 2024-06-10GK2024 游记
    License:CCBY-NC-SA4.0前情提要:拿到了高考体验卡。同级还有\(O(1)\)个和我一起来考的。目录Day0(2024.6.6)Day1语文Day499122178数学Day2物理Day499122179英语Day3化学Day499122180生物Day332748121Day0(2024.6.6)来到考点,熟悉了一下路线。然后就是各科老
  • 2024-06-08机器学习笔记(3): 神经网络初步
    神经网络应该由若干神经元组成。前面的每一个神经元都会给到一个参数,将传递的所有参数看作一个向量\(\vecx\),那么此神经元的净输入为:\[z=x\omega+b\]其中\(\omega\)称为权重向量。这里认为\(x\)是行向量,而\(\omega\)是列向量。神经元还有一个激活函数\(f(\c
  • 2024-06-07机器学习笔记(2): Logistic 回归
    Logistic回归是线性回归中一个很重要的部分。Logistic函数:\[\sigma(x)=\frac{L}{1+\exp(-k(x-x_0))}\]其中:\(L\)表示最大值\(x_0\)表示对称中心\(k\)表示倾斜度一般来说,都将\(L\)设为\(1\),而\(k\)和\(x_0\)在参数中控制。认为特征只有一个,那么自
  • 2024-06-06SpaceX 首席火箭着陆工程师 MIT论文详解:非凸软着陆最优控制问题的控制边界和指向约束的无损凸化
    上一篇blog翻译了LarsBlackmore(LarsBlackmoreisprincipalrocketlandingengineeratSpaceX)的文章,SpaceX使用CVXGEN生成定制飞行代码,实现超高速机载凸优化。利用地形相对导航实现了数十米量级的导航精度,着陆器在着陆过程中成像行星表面并将特征与机载地图匹配
  • 2024-05-30Understanding and Mitigating the Label Noise in Pre-training on Downstream Tasks
    目录概符号说明经验性的结果NoisyModelLearning代码ChenH.,WangJ.,ShahA.,TaoR.,WeiH.,XieX.,SugiyamaM.andRajB.Understandingandmitigatingthelabelnoiseinpre-trainingondownstreamtasks.概本文讨论如果预训练模型在训练的时候存在噪声,会
  • 2024-05-30复合材料力学基础
    各向异性材料的弹性力学基础复合材料宏观力学分析的基本假设·)所研究的各向异性弹性体为均质连续固体·2)线弹性范围内,服从广义虎克定律.·3)小变形各向异性与各向同性弹性力学的基本方程的差别差别在于:本构方程其它平衡方程,几何方程,协调方程,和边界条件等则完全相同
  • 2024-05-29自动控制: 最小二乘估计(LSE)、加权最小二乘估计(WLS)和线性最小方差估计
    自动控制:最小二乘估计(LSE)、加权最小二乘估计(WLS)和线性最小方差估计在数据分析和机器学习中,参数估计是一个关键步骤。最小二乘估计(LSE)、加权最小二乘估计(WLS)和线性最小方差估计(LMMSE)是几种常见的参数估计方法。这篇博客将详细介绍这些方法及其均方误差(MSE)的计算,并通过Pytho
  • 2024-05-28LGV引理
    在一张有向无环图DAG中,有边权,给定起点点集A,终点点集B,且A,B中的点数一致。定义P表示DAG中的一条路径。定义w(P)表示路径P上的边权乘积。定义e(a,b)表示a到b的所有路径的边权乘积之和,即\(e(a,b)=\sum_{P_i\in(a\tob)}w(P_i)\)定义一组A到B的不相交路
  • 2024-05-27克里金代理模型Kriging
    Kriging笔记_代理模型由于Kriging模型不仅能对未知点的适应值进行预测,还能对其预测的不确定性进行估计。因此,其被广泛应用于代理模型辅助进化算法中,以解决昂贵单目标或多目标优化问题。使用下面的公式来估计未知点x的适应值:(均值+正态分布求解适应度值)
  • 2024-05-16D - Another Sigma Problem
    D-AnotherSigmaProblemhttps://atcoder.jp/contests/abc353/tasks/abc353_d 思路前缀和+快速幂https://zhuanlan.zhihu.com/p/697255076 Codehttps://atcoder.jp/contests/abc353/submissions/53514365typedeflonglongll;llpow(llx,lln){if(n==
  • 2024-05-15「ABC353」Yet Another Sigma Problem
    题目字典树做法(用时187ms)#include<cstdio>#include<ctype.h>constintN=3e5+10;intn;longlongans;inttrans[N][26],cnt[N];inttot;chars[N];template<classT>voidread(T&x){ charc=getchar(); while(!isdigit(c))c=getchar()
  • 2024-05-14AML HW2
    一、VC维二、图半监督学习上述正则化框架由两部分组成:传播项:\(\sum_{i,j}W_{ij}||\frac{1}{\sqrt{d_i}}F_i-\frac{1}{\sqrt{d_j}}F_j||^2\),这部分是为了保证相似的节点应当有同样的标签,\(W_{ij}\)是节点之间的相似度,而\(F\)是标记矩阵,通过最小化平方项保证相似的节点
  • 2024-05-14【智应数】Singular Value Decomposition
    SVDDef(eigenvalue\eigenvector).Eigenvalue\(\lambda\)andeigenvector\(\bm{v}\)ofmatrix\(A\)satisfy$$A\bm{v}=\lambda\bm{v}.$$Lem1.Let\(M\in\mathbb{R}^{n\timesn}\)isasymmetricmatrix.Let\(\lambda_i\)and\(\bm{u}_i
  • 2024-05-14统计力学中的概率论基础(二)
    技术背景接上一篇文章,我们继续记录统计力学中的一些基础的概率论知识。这一篇文章主要介绍的是一些常用的概率密度函数的对应参数计算,如期望值、方差等。伯努利分布在离散分布中,最简单的分布为伯努利(Bernoulli)分布,也叫0-1分布。伯努利分布的随机变量就跟抛硬币一样只有两种:0(失
  • 2024-05-12C - Sigma Problem
    C-SigmaProblemhttps://atcoder.jp/contests/abc353/tasks/abc353_c 思路暴力TLE观察a1a2...an序列计算目标是,两两结合并并求模sum=sigma(ai+aj)%1e8ai,aj<=1e8ai+aj可能溢出,也可能不溢出于是我们考虑,统计所有溢出的个数。 对数组进行排序,
  • 2024-05-09如何写好Simulation证明(三): 半诚实敌手模型下的OT
    4.ObliviousTransferforSemi-HonestAdversaries在本文中,我们将给出一个证明:基于enhancedOWP,构造一个半诚实敌手模型下的OT.首先我们先介绍enhancedOWP概念.4.1EnhancedOWP.对这个特殊的OWP我们先不做过多的解释,我们先关注参数.一般正式的定义中,一个OWP具