ln
  • 2024-06-30贝叶斯回归器概览
    序言线性回归是机器学习中一种常用的回归方法。线性回归基于这样的假设,即基础数据是正态分布的,并且所有相关的预测变量与结果具有线性关系。但在现实世界中,这并不总是可能的,它将遵循这些假设,贝叶斯回归可能是更好的选择。贝叶斯回归使用关于数据的先验信念或知识来“学习
  • 2024-06-30文件链接
    文件链接创建连接时一定要写绝对路径【1】、硬链接硬连接的作用是允许一个文件拥有多个有效路径名,这样用户就可以建立硬连接到重要文件,以防止“误删”的功能。相比于软连接来说,硬链接和原文件来说没有那么强的联系,如果我修改了原文件,硬链接的内容也会变化硬链接就是一个i
  • 2024-06-24Java开发者的神经网络进阶指南:深入探讨交叉熵损失函数
    前言今天来讲一下损失函数——交叉熵函数,什么是损失函数呢?大体就是真实与预测之间的差异,这个交叉熵(CrossEntropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。在信息论中,交叉熵是表示两个概率分布p,q的差异,其中p表示真实分布,q表示预测分布,那么\(
  • 2024-06-23[题解]AT_arc113_c [ARC113C] String Invasion
    题意给定一个字符串\(S\),你可以选择一个\(i(1\leqi\leq|S|)\),如果\(s_i=s_{i+1}\neqs_{i+2}\),就将\(s_{i+2}\)设为\(s_i\)。问:最多能操作几次。思路我们可以用一个后缀和\(s_{i,j}\)维护\(S_i\simS_n\)中与\(j\)不同的数量。然后,我们可以发现一
  • 2024-06-22有理函数的不定积分例题
    example00.First\[\begin{aligned}\int\frac{1}{\sinx+\cosx}dx=?\\\\设:u=\tan\frac{x}{2},\enspacex=2\arctan(u)\\\\\sinx=\frac{2u}{1+u^{2}},\enspace\cosx=\frac{1-u^{2}}{1+u^{2}}\\\\\int\frac{1}{\frac{2u}{1
  • 2024-06-13调和级数
    定义调和级数:\(\sum\limits^{\infty}_{i=1}{\frac{1}{i}}\)\(f_n=\sum\limits^{n}_{i=1}{\frac{1}{i}}\)计算\(f_n=1+\frac{1}{2}+\frac{1}{3}+\frac{1}{4}+\frac{1}{5}+\frac{1}{6}+\frac{1}{6}+\dotsm+\frac{1}{n}<1+\frac{1}
  • 2024-06-13YOLO系列理论解读 v1 v2 v3
    YOLO系列理论解读YOLOv1(YouOnlyLookOnce:Unified,Real-TimeObjectDetection)YOLOv1实现步骤将一幅图像分成SxS个网格(gridcell),如果某个object的中心落在这个网格中,则这个网格就负责预测这个object。通常情况下将S取值为S=7划分为7x7的一个区域。2)每个网格要
  • 2024-06-112024年新高考2卷精选试题解答
    **(2024年新高考2卷19题)**已知双曲线$C:x^2-y^2=m\(m>0)$,点$P_1(5,4)$在$C$上,$k$为常数,$0<k<1$.按照如下方式依次构造点$P_n\\left(n=2,3,\cdots\right)$:过$P_{n-1}$作斜率为$k$的直线与$C$的左支交于点$Q_{n-1}$,令$P_n$为$Q_{n-1}$关于$y$轴的对称点,记$P_{n}$的坐标
  • 2024-06-10在Linux中,什么是硬链接和软链接?
    在Linux中,硬链接(HardLink)和软链接(SoftLink,也称为符号链接SymbolicLink)是两种用于引用文件或目录的机制。以下是关于这两种链接的详细解释:1.硬链接(HardLink)定义:硬链接是通过文件系统中的索引节点(inode)来进行连接的。多个文件名可以指向同一个索引节点,这就是硬链接。特
  • 2024-06-08CF1192B Dynamic Diameter 题解
    思路静态\(\text{toptree}\)板子题。定义我们使用簇来表示树上的一个连通块。可以按照如下方式定义一个簇:一个簇可以表示为三元组\((u,v,E)\),其中\(u,v\)为树的节点,称为簇的界点,\(E\)为一个边的集合,表示该簇包含的边,路径\((u,v)\)称作簇路径。\(u,v\)分别为上界
  • 2024-05-08unbuntu为Qt-Creator程序设置快捷打开命令
    主要用到ln-s建立软链接命令。步骤:cd/binsudoln-s#假设qt-creator的路径在/opt/Qt5.12.9/Tools/QtCreator/bin/qtcreator.shln/opt/Qt5.12.9/Tools/QtCreator/bin/qtcreator.sh./qt-creator之后在Shell敲击qt-creator回车,即可打开QtCreator,不需要敲那么长的
  • 2024-05-04linux20-ln软链接
    linux20-ln软链接在系统中创建软链接,可以将文件,文件夹链接到其他位置,类似Windows系统中的快捷方式ln-s参数1参数2-s,soft,创建软链接,不添加时创建硬链接(硬链接不允许指向目录)参数1,被链接的文件或文件夹,不可以使用相对路径参数2,要链接去的目的地
  • 2024-04-30基本积分表
    \(\intx^{\mu}dx=\frac{1}{\mu+1}x^{\mu+1}+C\)\[\begin{eqnarray}\intx^{\mu}dx=\frac{1}{\mu+1}x^{\mu+1}+C\\\mu为常数,但\mu\ne0\\\\推导过程如下:\\(\frac{1}{\mu+1}x^{\mu+1})'=\frac{(x^{\mu+1})'\cdot\mu+1-
  • 2024-04-29闲话 4.29:伯特兰定理及另一道题
    伯特兰公设任意\(\ge4\)的正整数\(n\)满足:存在一个质数\(p\in(n,2n)\)。以下\(p\)均取质数,\(p_i\)表示第\(i\)个质数。引理1:\[\prod_{p\len}p\le4^n,n>1\]首先有一个想法:\[\ln\prod_{p\len}p\le\pi(n)\lnn\simn\len\ln4\]这些放缩是相当松的,因为
  • 2024-04-29熵权(值)法计算权重原理解释&综合得分纵向对比
    熵值是不确定性的一种度量。信息量越大,不确定性就越小,熵也就越小;信息量越小,不确定性越大,熵也越大。因而利用熵值携带的信息进行权重计算,结合各项指标的变异程度,利用信息熵这个工具,计算出各项指标的权重,为多指标综合评价提供依据。权重计算熵值法的计算公式如下:参考文献:[1]张晓
  • 2024-04-24CMU 15-751 CS Theory Toolkit Lecture Lecture 3 - Factorials & Binomial Coefficients
    CMU15-751课程第三课笔记。接上回CMU15-751-2。同样照抄参考了LectureNote。今天学习的是阶乘和二项式系数的渐进分析,这两种的出现频率非常高,因此我们很有必要熟悉他们的渐进方法。这也是我们做更多渐进分析的练习的机会。阶乘(Factorials)\(n!=2^{\Theta(n\logn)}\)
  • 2024-04-24CMU 15-751 CS Theory Toolkit Lecture 2 - Basic Asymptotics
    CMU15-751课程第二课笔记。CSTheoryToolkitatCMU-YouTube照抄参考了LectureNote。渐进标记(AsymptoticNotation)我们知道\[\sum_{i=1}^ni=\frac{n(n+1)}2=\frac12n^2+\frac12n\]在\(n\)很大的时候,平方项这个函数值的影响会更显著。我们可以把这一个特
  • 2024-04-19高斯信道
    正态分布正态分布的微分熵\(\newcommand{\d}{\text{d}}\)\(\newcommand{\E}{\mathbb{E}}\)当\(X\)满足正态分布\(N(\mu,\sigma^2)\)时,\(f(x)=\dfrac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{(x-\mu)^2}{2\sigma^2}}\)。我们以\(e\)为底数计算\(h(X)=-\displaystyle\int_Sf(x)
  • 2024-04-17集合幂级数 ln exp
    写的时候有个地方忘取模调了半天【流汗】先和子集卷积一样处理出size那一维,先对集合幂级数那一维fmt,然后在形式幂级数那一维作\(\mathcal{O}(n^2)\)的暴力ln,exp。写的时候遇到的坑点是集合幂级数那一维的范围其实是\([0,n]\)而不是\([0,n-1]\)。voidfmt(int*f,int
  • 2024-04-163.0 常见operators算子
    1.1卷积相关1)卷积2)反卷积(只能做到近似恢复,无法完全恢复原图像) 参考:https://blog.csdn.net/qq_27261889/article/details/863040611.2线性变换相关1)Linear2)矩阵相乘类:【mm:二维矩阵相乘;bmm:三维矩阵相乘;matmul:多维矩阵相乘,只要两个矩阵能够broadcast即
  • 2024-04-115. bn和ln
    batchnormalization和layernormalization,主要区别在于normalization的方向不同。normalizationNormalization:规范化或标准化,就是把输入数据X,在输送给神经元之前先对其进行平移和伸缩变换,将X的分布规范化成在固定区间范围的标准分布。Normalization的作用很明显,把数据拉回标准
  • 2024-04-06(求助)SPSS、Matlab中非线性回归拟合报错-来自即将延毕研究生的苟延残喘
    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录1原函数形式2SPSS中输入式3Matlab代码及数据集3.1数据集3.2Matlab代码4求助目的1原函数形式原函数形式是这样的,建立多元非线性回归模型,求解参数2SPSS中输入式我的输入式是:0.24a*
  • 2024-04-032024.04 别急记录
    1.餐巾计划问题建图跑费用流即可:\((S,1,\inf,p)\);\(\foralli\in[1,N],(i,i+N,r_i,0)\);\(\foralli\in[1,N],(S,i+N,r_i,0)\);\(\foralli\in[1,N],(i,T,r_i,0)\);\(\foralli\in[1,N),(i,i+1,\inf,0)\);\(\foralli\in[1,N-n],(i+N,i+n,\inf,f)\);\
  • 2024-03-28Fisher 信息量和充分统计量的理解
    一:fisher信息量和有效估计量已知总体为包含未知参数的随机变量,密度函数为\(f(x,\theta)\).Fisher信息量为样本携带参数\(\theta\)的信息.对信息量做以下三条假设:1:信息量随样本数量增加等量递增:\(ln\prodf(x_i,\theta)=\sumlnf(x_i,\theta)\).2:密度函数\(f(x,\th
  • 2024-03-28ls-du-mkdir-touch-ln-cp
    lsls[选项][文件或目录…]-l已长格式显示文件和目录列表ll=ls-l[root@localhostlist]#ll总用量4drwxr-xr-x9rootroot693月2813:58aadrwxr-xr-x9rootroot693月2813:58bbdrwxr-xr-x9rootroot693月2813:58cc-rw-r--r--1