• 2024-05-05最大似然估计
    什么是最大似然估计?先定义几个常用的术语。1.什么是参数?在统计学中,参数是指用来描述一个统计模型的未知特征或属性。这些特征可以是概率分布的位置、形状、尺度等方面的性质,也可以是用于描述数据生成过程中的固定参数。参数通常是我们感兴趣的、要从数据中推断或估计的量。举
  • 2024-04-03生成对抗网络的Wasserstein距离:度量两个概率分布之间距离
    生成对抗网络的Wasserstein距离作者:禅与计算机程序设计艺术1.背景介绍生成对抗网络(GenerativeAdversarialNetwork,GAN)是近年来机器学习领域最重要的创新之一。GAN通过训练两个相互竞争的神经网络模型—生成器(Generator)和判别器(Discriminator),从而学习生成接近真实数
  • 2024-03-20概率论基础概念和在AI中的应用
    基本概念概率论是数学的一个分支,它专注于分析和理解随机现象。通过概率论,我们可以量化不确定性,预测事件发生的可能性,并对复杂系统进行建模和分析。以下是一些概率论的基本概念和原理:概率的定义经典定义:当所有基本事件发生的可能性相同时,某事件发生的概率等于该事件所包含的
  • 2024-03-05KL散度和交叉熵的对比介绍
    KL散度(Kullback-LeiblerDivergence)和交叉熵(CrossEntropy)是在机器学习中广泛使用的概念。这两者都用于比较两个概率分布之间的相似性,但在一些方面,它们也有所不同。本文将对KL散度和交叉熵的详细解释和比较。KL散度和交叉熵KL散度,也称为相对熵(RelativeEntropy),是用来衡量两个概
  • 2023-12-29上升到人生法则的贝叶斯理论
    贝叶斯定理在数据分析、机器学习和人工智能等领域有广泛的应用。贝叶斯定理(Bayes'theorem)是一种用于计算条件概率的重要定理,它基于条件概率的定义,描述了在已知某一条件下,另一个条件发生的概率。需要注意的是,贝叶斯定理的有效性依赖于对概率的准确估计和假设的合理性。在实际应用中
  • 2023-11-07一文带你零基础深入理解随机变量,概率分布与统计量
    一.随机事件与概率1.1随机现象在自然界和人类活动中,发生的现象多种多样,比如下列这些现象:1.偶数能被2整除2.光的速度是常数 3.一家门店一天之内的订单量4.一个新生儿可能是男生也可能是女生 5.AB实验存在对照组和实验组
  • 2023-10-03分布律,概率分布函数,概率密度函数
    1.分布律定义分布律只针对离散型随机变量,连续型没有设离散型随机变量可能取值为\(x_k(k=1,2,...)\),事件\(\{X=x_k\}\)的概率为离散型随机变量\(X\)的分布律,记作\(P\{X=x_k\}=p_k,k=1,2...\)性质\(p_k>=0\)。\(p_k\)的意思是取值为k的概率\(\sum_{k=1}^{\infty}=1\)
  • 2023-09-19m基于码率兼容打孔LDPC码BP译码算法的matlab误码率仿真
    1.算法仿真效果matlab2022a仿真结果如下:2.算法涉及理论知识概要码率兼容打孔LDPC码BP译码算法是一种改进的LDPC译码算法,能够在不同码率下实现更好的译码性能。该算法通过在LDPC码中引入打孔操作,使得码率可以灵活地调整,同时利用BP(BeliefPropagation)译码算法进行迭代译码,提高了
  • 2023-09-19m基于码率兼容打孔LDPC码BP译码算法的matlab误码率仿真
    1.算法仿真效果matlab2022a仿真结果如下:   2.算法涉及理论知识概要       码率兼容打孔LDPC码BP译码算法是一种改进的LDPC译码算法,能够在不同码率下实现更好的译码性能。该算法通过在LDPC码中引入打孔操作,使得码率可以灵活地调整,同时利用BP(BeliefPropagation)译
  • 2023-09-18Verilog 随机数及概率分布
    转载:7.3Verilog随机数及概率分布|菜鸟教程(runoob.com)随机数Verilog中使用系统任务$random(seed)产生随机数,seed为随机数种子。seed值不同,产生的随机数也不同。如果seed相同,产生的随机数也是一样的。可以为seed赋初值,也可以忽略seed选项,seed默认初始值为0
  • 2023-08-23学习笔记:什么是Wasserstein distance
    简单地说,就是衡量两个概率分布之间的差异。也可以说是将一个概率分布转换成另一个概率分布要花费多少代价。图1:在一维空间中的三个概率分布比如,上图中有三个概率分布f,g,h,我们可以说f与g之间的距离比f与h之间的距离更小。上述只是感性上的认知,那么如何计算出准确
  • 2023-08-10信息熵
    信息熵前置知识:期望简介在信息论中,熵\((entropy)\)是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。这里,"消息"代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大。)来自信源的
  • 2023-07-18pytorch CE损失
    PyTorch交叉熵损失函数在深度学习中,交叉熵损失函数(CrossEntropyLoss)是一种常用的损失函数,尤其在多分类问题中使用广泛。在PyTorch中,我们可以使用nn.CrossEntropyLoss模块来定义和计算交叉熵损失。本文将介绍交叉熵损失函数的原理,并给出使用PyTorch计算交叉熵损失的示例代码。交
  • 2023-07-14softmax和crossentropy
    当进行多分类任务时,通常会使用Softmax函数和CrossEntropyLoss损失函数来处理模型的输出和计算损失。Softmax函数:Softmax函数用于将模型的原始输出转换为概率分布。对于一个具有K个类别的模型输出向量z,Softmax函数的定义如下:softmax(z_i)=exp(z_i)/sum(exp(z_j
  • 2023-06-27数学基础
    一、线性代数基础1.1数域1.2向量空间1.3内积空间1.4Hilbert空间二、概率论基础2.1随机试验、随机事件以及概率的公理化定义2.2随机变量以及概率分布的定义2.3几种总要的概率分布三、信息论基础3.1VonNeumann熵3.2VonNeumann熵的一些特性3.3Holevo界
  • 2023-06-26含风光发电的电力系统概率潮流计算,考虑负荷波动,风力和光伏出力不确定性
    含风光发电的电力系统概率潮流计算,考虑负荷波动,风力和光伏出力不确定性,算法方面:基于蒙特卡洛法和半不变量法(gram-charlier和corn-fisher级数)。这是一个概率潮流计算的程序,用于考虑分布式电源、发电机和负荷随机波动的情况。它应用在电力系统领域,用于分析电力系统中节点电压和支路
  • 2023-06-01最大信息系数——检测变量之间非线性相关性
    最后的效果就是这样的。很明显可以看到,左下角那个有点像三角函数的关系,Pearson系数(就是线性相关系数)为0,而MIC则有0.8。 摘自:http://tech.ifeng.com/a/20180323/44917506_0.shtml最大信息系数最大信息系数(MIC)于2011年提出,它是用于检测变量之间非线性相关性的最新方法。用于进行
  • 2023-05-14《SoftRank: Optimising Non-Smooth Rank Metrics》论文阅读
    背景SoftRank是一种listwise的建模方法,listwise建模的难点在于损失函数的选取。在排序中常用NDCG作为评价指标,最直接的想法是NDCG作为损失函数,这样优化目标和评价指标是一致的,没有gap,但是NDCG是不可以微的(需要排序的IR评价指标都是不可微),没法用梯度下降法来优化。SoftRank采用了
  • 2023-05-1411种概率分布的拟合与ks检验,可用于概率分析,可靠度计算等领域
    11种概率分布的拟合与ks检验,可用于概率分析,可靠度计算等领域案例中提供11种概率分布,具体包括:gev、logistic、gaussian、tLocationScale、Rayleigh、Loglogistic、Lognormal、GeneralizedPareto、Weibull、Gamma、Exponential等概率分布然后进行ks检验,选择最优概率分布,并画出11中概
  • 2023-05-065 离散概率分布的运用:善用期望
    随机变量与变量概率分布描述了一个给定变量的所有可能结果的概率;随机变量是一个可以等于一系列数值的变量,而这一系列数值中的每一个值都与一个特定概率相关联;在肥蛋赌场Tiger机这个例子中,随机变量代表我们将在每一局赌局中赢得的收益;随机变量通常用大写字母表示,如X或Y;变
  • 2023-04-29概率估计方法
    概率估计方法在实践中,概率分布通常是未知的,如何从样本中识别出潜在的概率分布是统计估计。参数方法极大似然估计MLE最大化后验估计MAP非参数方法直方图方法核密度估计KDE最近邻密度估计NNDE两种观点(关于参数方法\(\theta\))假设我们有一个样本数据集合\(
  • 2023-04-25matlab学习笔记9 随机变量与概率分布
    概率分布函数下图的函数作用是求某点处的B(n,p)的概率,横坐标为实验所得值,即x,从中可见e(x)=12unidpdf(k,N)为均匀分布函数的概率密度在随机范围为1到N的正整数中取k的概率,若需要离散的情况可改用unifpdfy=unidpdf(1:1:10,20)%unidpdf(k,N)为均匀分布函数的概率密度在随机范
  • 2023-04-17Matlab 采用正态分布和韦布尔分布描述风电,光伏和负荷概率分布,采用拉丁超立方采样抽样生成大量场景
    [1]关键词:场景生成;场景削减;概率分布;随机优化[2]参考文献:《一种在微网动态经济调度中考虑风电随机性的方法》[3]主要内容:Matlab采用正态分布和韦布尔分布描述风电,光伏和负荷概率分布,采用拉丁超立方采样抽样生成大量场景。采用快速前代法实现场景削减。ID:3166673646292647
  • 2023-04-07计算两个概率分布之间的距离(Hellinger距离)
    Hellinger距离介绍Hellinger距离是一种用于度量概率分布之间相似度的指标。在统计学和信息论领域中,它被广泛应用于分类、聚类、图像识别、文本分类等方面。Hellinger距离又称为Bhattacharyya距离的平方根,它是两个概率分布之间的欧几里德距离的一半,其取值范围在0到1之间。和欧
  • 2023-02-06机器学习-白板推导-系列(二)笔记:高斯分布与概率
    文章目录​​0笔记说明​​​​1高斯分布​​​​1.1求uMLE​​​​1.2求σMLE​​​​2有偏估计与无偏估计​​​​2.1uMLE为无偏估计​​​​2.2σ2MLE为有偏估计