• 2025-01-07人工智能知识分享第十天-机器学习_特征降维
    特征降维特征降维简介用于训练的数据集特征对模型的性能有着极其重要的作用。如果训练数据中包含一些不重要的特征,可能导致模型的泛化性能不佳。例如:某些特征的取值较为接近,其包含的信息较少我们希望特征独立存在,对预测产生影响,具有相关性的特征可能并不会给模型带来更多
  • 2025-01-05线段树进阶练习专题
    小白逛公园题目大意:求一段区间里最大子段和思路:有空补(code:#include<bits/stdc++.h>usingnamespacestd;constintMAXN=500100;intm,n;inta[MAXN];inlineintread(){ intx=0,f=1; charch=getchar(); while(ch>'9'||ch<'0'){ if(ch==&#
  • 2025-01-05统计学重要知识点笔记
    统计学笔记正态分布又称“高斯分布”,是一种常见的连续概率分布。它的概率密度函数由PDF表现:1.对称性:正态分布2.钟形曲线:它的曲线呈现类似钟形的形(bellshapedcurve)3.均值、方差和标准差:均值 (μ) 方差(σ²)标准差(σ)正态分布的方差、标准差、68-98-9
  • 2025-01-04常见概率分布及其数学期望和方差
    以下是常见概率分布及其期望和方差公式的表格:分布名称分布列或概率密度期望方差离散型分布0-1分布(两点分布或伯努利分布)\(B(1,p)\)\(p_{k}=p^{k}(1-p)^{1-k},k=0,1\)\(p\)\(p(1-p)\)二项分布\(B(n,p)\)\(p_{k}=\binom{n}{k}p^{k}(1-p)^{n-k},k=0,1,
  • 2025-01-03带你从入门到精通——机器学习(七. 特征降维)
    建议先阅读我之前的博客,掌握一定的机器学习前置知识后再阅读本文,链接如下:带你从入门到精通——机器学习(一.机器学习概述)-CSDN博客带你从入门到精通——机器学习(二.KNN算法)-CSDN博客带你从入门到精通——机器学习(三.线性回归)-CSDN博客带你从入门到精通——机器学习(四.逻
  • 2024-12-24深入理解批量归一化(BN):原理、缺陷与跨小批量归一化(CBN)
    在训练深度神经网络时,批量归一化(BatchNormalization,简称BN)是一种常用且有效的技术,它帮助解决了深度学习中训练过程中的梯度消失、梯度爆炸和训练不稳定等。然而,BN也有一些局限性,特别是在处理小批量数据和推理阶段时。因此,跨小批量归一化(Cross-BatchNormalization,CBN)作为一种
  • 2024-12-21P7962 NOIP2021 方差
    首先观察什么样的序列是能操作得到的。考虑差分数组(由于算的是方差,所以不含第一项)可以发现,这个操作相当于交换差分数组相邻两项。也就是说,要让差分数组重排之后方差最小。考虑推方差的式子,写成\(n\suma_i^2-(\suma_i)^2\)的形式。发现最小化这个东西不太可做,于是去找结论。
  • 2024-12-16特征选择--过滤法
    过滤法(FilterMethod):过滤法通过计算特征与目标变量之间的统计关系,独立于模型来选择特征,它通常使用简单的评估标准,如相关性或方差过滤法:方差阈值法:移除低方差特征相关系数:计算特征与目标变量之间的相关性(如皮尔逊相关系数)卡方检验:用于分类任务,评估特征与目标变量的独
  • 2024-12-12克里金插值举例
    1. 采样数据收集-假设我们研究的农田是一个长方形区域,长100米,宽80米。我们在这片农田里按照一定的网格布局,选取了20个采样点。在每个采样点,我们都精确地测量了土壤中氮元素的含量(单位:mg/kg)。例如,其中5个采样点的数据如下:采样点1的氮含量为15mg/kg,采样点2的氮含量为18mg/kg,采
  • 2024-12-11【机器学习】机器学习的基本分类-无监督学习-主成分分析(PCA:Principal Component Analysis)
    主成分分析(PrincipalComponentAnalysis,PCA)主成分分析(PCA)是一种常用的降维技术,用于将高维数据投影到低维空间,同时尽可能保留原数据的主要信息(方差)。1.PCA的核心思想目标:找到新的坐标轴(主成分),使得数据投影到这些轴上的方差最大化。主成分:数据的主要变化方向。第一个主
  • 2024-12-11R语言自动计算并添加显著性字母(上)
    之前分析处理数据总是在SPSS里做方差分析,之后在Origin里作图,之后手动添加显著性字母,因此我就想到在R语言中同时实现这两者。本文涉及的是单因素单组方差分析,单因素多组方差分析在下篇。显著性检验方法选取首先我们要了解一下应该如何选取显著性分析方法,不然之后做出来的都没
  • 2024-12-05主成分分析-PCA
        PCA(PrincipalComponentAnalysis),即主成分分析方法,是一种使用最广泛的数据降维算法。PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。PCA的工作就是从原始的空间中顺序地找一组相互正交
  • 2024-12-05概率论与数理统计经典主线回顾和局限性
    引言尽管概率论在数学和应用领域取得了许多进展,但其某些内容仍然在现代社会的应用中具有局限性,特别是在人工智能和大数据时代,数据分析的需求日益复杂,现有的概率论和数理统计方法对分布的严格要求以及数据特征的有限制,可能无法完全满足现代技术对数据处理的更高要求。本文回顾
  • 2024-12-012000-2020年 全国各省商品市场分割指数相对价格法计算过程+计算结果
    2000-2020年全国各省商品市场分割指数相对价格法计算过程+计算结果.r.rarhttps://download.csdn.net/download/2401_84585615/90001920                             在2000至2020年间,全国各省商品市场分割指数的
  • 2024-11-29方差
    题目描述:解题思路:首先我们化简式子,画出来根号里面为\(0\),所以分子是一个区间和,分母经过观察就是\(n\)。所以这个式子就是区间的平均值。但是问题来了我们怎么求一个区间中所有子区间的平均值的最大值?这里需要一个结论:只有长度小于等于\(4\)的子区间才有用。证明:两个
  • 2024-11-27PAT甲级-1043 Is It a Binary Search Tree
    题目题目大意给出一组二叉树的先序遍历,判断是否为二叉排序树或镜像二叉排序树。如果是,输出YES以及该树的后序遍历,如果不是,输出NO。思路刚开始写这道题,用的模拟,直接根据输入的序列构造二叉排序树,然后求该树的先序遍历,看是否和题目给出的序列相同。如果相同,则是二叉排序树
  • 2024-10-15Transformer 的缩放因子为什么需要开平方根
    目录一、防止过大的注意力分数导致softmax函数饱和二、维度校正三、保持方差稳定在Transformer模型中,缩放因子(scalingfactor)特别设计用于调整注意力分数(attentionscores),它通常是键向量维度的平方根。这一做法主要是出于以下几个原因:一、防止过大的注意力分数导致
  • 2024-10-12机器学习主成分分析算法 PCA—python详细代码解析(sklearn)
    一、问题背景在进行数据分析时,我们常常会遇到这样的情况:各个特征变量之间存在较多的信息重叠,也就是相关性比较强。就好比在研究一个班级学生的学习情况时,可能会收集到学生的语文成绩、数学成绩、英语成绩等多个特征变量。但往往会发现,语文成绩好的学生,数学和英语成绩也可能比