• 2024-11-20Lora里面说大模型参数是over-parametrized(过参数的),什么是over-parametrized?(另附相关概念:double descent和bias-variance trade
    诸神缄默不语-个人CSDN博文目录本文会介绍over-parametrized(过参数化)、doubledescent、bias-variancetrade-off概念。主要是我在看Lora论文的过程中看到了“over-parametrized”这个概念,所以写一篇关于这个概念的博文。文章目录1.over-parametrized2.doubledesce
  • 2024-09-03神经网络中的噪声是什么意思
     在神经网络中,噪声指的是数据或模型中的随机扰动或不准确性,这些扰动可以影响模型的训练和预测结果。噪声:表达了在当前任务上学习算法所能达到的期望泛化误差的下界(即模型学习的上限),即刻画了学习问题本身的难度。不可控的错误很难避免,这被称为不可约偏差(irreducibleerror)
  • 2024-08-27主成分分析结合遗传算法优化的随机森林通用代码
    importpandasaspdfromsklearn.preprocessingimportStandardScalerfromsklearn.decompositionimportPCAfromsklearn.ensembleimportRandomForestClassifier,RandomForestRegressorfromsklearn.metricsimportaccuracy_score,mean_squared_error,mean_abso
  • 2024-08-21python 计算list的方差
    python计算list的方差 importnumpyasnp#假设我们有一个包含数值的列表data=[1,2,3,4,5]#计算均值mean=np.mean(data)#计算方差variance=np.var(data)#这将使用默认的N-1作为分母(样本方差)#如果你想要总体方差(使用N作为分母),可以传入ddof=0#var
  • 2024-07-30Bias(偏差)、Variance(方差)
    偏差:是指一个模型的在不同训练集上的平均性能和最优模型的差异。偏差可以用来衡量一个模型的拟合能力。偏差越大,预测值平均性能越偏离最优模型。偏差衡量模型的预测能力,对象是一个在不同训练集上模型,形容这个模型平均性能对最优模型的预测能力。方差:(variance)描述的是一个模型在
  • 2024-04-06pandas中var() 函数的应用
    var()函数用于计算DataFrame或Series中数值型数据的方差。方差是衡量数据分散程度的一种统计量,它是各个数据与整个数据集平均值之差的平方的平均值。下面是一个示例,说明如何使用var()函数:importpandasaspd#创建一个DataFramedata={'A':[1,2,3,4,5
  • 2023-12-08神经网络优化篇:详解偏差,方差(Bias /Variance)
    偏差,方差注意到,几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使自己认为已经理解了偏差和方差的基本概念,却总有一些意想不到的新东西出现。关于深度学习的误差问题,另一个趋势是对偏差和方差的权衡研究甚浅,可能听说过这两个概念,但深度学习的误差很少权衡
  • 2023-10-18PCA 降维分析
    数据来源:从这篇博客中借用下,百度云网页端居然可以直接下载文件了,稀奇数据已经分享在百度云:客户年消费数据密码:lehv该份数据中包含客户id和客户6种商品的年消费额,共有440个样本分析过程:用python和R做个简单的PCA分析,顺便比较下结果是不是一致numpy计算结果:importnumpy
  • 2023-09-15题解 P8920 『MdOI R5』Variance
    题目描述给你两个长度为\(n\)的序列\(a\)和\(b\),让你选\(n\)个\(c_i\in[a_i,b_i]\),使得\(\frac{1}{n}\sum_{i=1}^n(c_i-\overlinec)^2\)最大。具体思路首先我们从方差的定义出发,方差代表了数据的波动程度,公式为:$$s^2=\frac{1}{n}\sum_{i=1}^n(a_i-\overline
  • 2023-08-23用户新增预测挑战赛(算法挑战大赛)(二)
    1.可视化相关:2.交叉验证:(提分技巧之一)k折交叉验证k-foldcrossvalidation 首先随机地将数据集切分为k个互不相交的大小相同的子集; 然后将k-1个子集当成训练集训练模型,剩下的(heldout)一个子集当测试集测试模型; 将上一步对可能的k种选择重复进行(每次挑一个不
  • 2023-06-25Bray-Curtis, 9.2% of variance; P = 1x10−4
    Bray-Curtis是一种用于测量两个样本之间差异的距离度量。它通常用于生态学研究中,用于比较不同样本中物种组成的相似性。主坐标分析是一种降维技术,它通过将高维数据投影到低维空间来简化数据。在这个过程中,数据的一些变异会被保留下来,而另一些变异则会被丢弃。第一个主坐标解释了
  • 2023-06-01机器学习模型优化:variance bias
    bias(偏差:指同一个点的训练数据的预测值与正确值间的偏离程度)variance(方差:指同一个点的训练数据的预测值的离散程度) 一般情况下,模型需要在bias和variance之间取得一个平衡。bias小的模型,variance一般大;variance小的模型,bias一般大。更好的理解bias和variance的关系能够帮助我们
  • 2023-01-11[LeetCode] 2272. Substring With Largest Variance
    Thevarianceofastringisdefinedasthelargestdifferencebetweenthenumberofoccurrencesofany2characterspresentinthestring.Notethetwochara
  • 2023-01-01Bias-Variance
    knitr::opts_chunk$set(echo=TRUE)看了蛮久的,各种各样的说法,把不同的阐述分别写下,以供自己参考Hastie-《统计学习导论》《ISLR》是Hastie写的基于R的统计学习教材,网上有
  • 2022-12-08Baggging 和Boosting
    Baggging和Boosting都是模型融合的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。 Bagging:先介绍Bagging方法:Bagging即套袋法,
  • 2022-11-30MSE = Bias² + Variance?什么是“好的”统计估计器
    偏差-方差权衡”是ML/AI中被经常提到的一个流行概念。我们这里用一个直观的公式来对它进行解释:MSE=Bias²+Variance本文的目的并不是要证明这个公式,而是将他作为
  • 2022-11-12为什么样本方差(sample variance)的分母是 n-1?
    Standarddeviation  Bessel'scorrection贝塞尔校正  为什么样本方差(samplevariance)的分母是n-1?非常好的问题,探索这个问题的答案,不仅能更好的了解自己和
  • 2022-10-23R语言广义线性模型索赔频率预测:过度分散、风险暴露数和树状图可视化|附代码数据
    在精算科学和保险费率制定中,考虑到风险敞口可能是一场噩梦。不知何故,简单的结果是因为计算起来更加复杂,只是因为我们必须考虑到暴露是一个异构变量这一事实。保险费率制定中