- 2024-10-14强化学习性能指标之一:以训练的episodes数和训练所需样本数作为评价算法性能的指标
在强化学习领域,一般都是限定训练的episodes数和训练所需样本数的,也就是说在进行算法性能对比的时候各个算法都是在相同的训练的episodes数和训练所需样本数的,但是如果我们在算法得分数保持相同的情况下是不是可以将各个算法所用的不同的训练的episodes数和训练所需样本数作为性能
- 2024-09-142024.9.13(周五)
完成机器学习查询数据集的作业数据集名称样本数属性属性个数标签任务Iris数据集150花萼长度,花萼宽度,花瓣长度,花瓣宽度4鸟类(Setosa,Versicolor,Virginica)分类MNIST数据集70,000像素值(28x28像素)784手写数字(0-9)分类Titanic数据集891乘客ID,船舱
- 2024-06-21卡方分布简述
2.1简介卡方分布英文名称chi-squaredistribution,最初由法国数学家Abbe提出,后来德国科学家Helmert和英国数学家Pearson也分别导出。 则其概率密度函数如下,具体分布图如图2.1: 图2.1卡方分布2.2性质 2.3应用2.3.1卡方检验卡方检验的基本思想来源于卡方分
- 2024-05-19excel中stdev与stdevp函数的区别
STDEVP和STDEV的区别是什么-CSDN博客STDEVP和STDEV都是Excel函数,用于计算一个样本的标准差。但是它们有一个重要的区别:STDEVP函数使用总体样本的样本数,而STDEV函数使用实际样本的样本数。举个例子,假设你有一个样本,其中有10个数据点。如果你使用STDEVP函数计算标准差
- 2024-04-12准确率和召回率的评估方法
准确率和召回率的评估方法:准确率和召回率是分类任务中常用的评估指标,它们从不同的角度衡量了分类模型的性能。以下是准确率和召回率的评估方法:定义混淆矩阵:混淆矩阵(ConfusionMatrix)是一个表格,用于展示分类模型的预测结果与实际结果之间的关系。它的行通常代表实际类别,列代表预
- 2024-02-24算法的评估指标 转载自知乎https://zhuanlan.zhihu.com/p/400644465
什么是评估指标?评估指标是针对模型性能优劣的一个定量指标。一种评价指标只能反映模型一部分性能,如果选择的评价指标不合理,那么可能会得出错误的结论,故而应该针对具体的数据、模型选取不同的的评价指标。针对不同类型的学习任务,我们有不同的评估指标,这里我们来介绍最常见的分类
- 2024-01-313.4 概率密度估计的非参数方法
参数估计和非参数估计的区别参数估计是已知分布类型和部分分布参数后,从指定的一类函数中选择一个用于估计未知函数。参数估计要求的样本数目很少,但是对密度函数需要有先验认识。非参数估计是在已知分布信息极其有限的情况下,从所有可能的函数中找出一个估计未知函数。非参数估计
- 2023-09-24【机器学习 | 分类指标大全】全面解析分类评估指标:从准确率到AUC,多分类问题也不在话下, 确定不来看看?
- 2023-05-25如何衡量目标检测算法的优劣
如何衡量目标检测算法的优劣目标检测(objectdetection)问题相对于一般AI分类问题更加复杂,不仅检测出目标,输出目标的类别,还要定位出目标的位置。分类问题中的简单accuray指标已经不能反映出目标检测问题结果的准确度,而mAP(MeanAveragePrecision)就是被用来衡量目标检测算法优
- 2023-01-03第七章 过度拟合问题
存在多个特征,但是数据很少,或者模型函数不合理,都会出现过拟合的现象。过拟合可能对样本数能够很好的解释,但是无法正确的预测新数据。解决过度拟合问题的办法:减少特
- 2022-09-20样本不平衡问题
样本不平衡(ImbalancedData),也尝尝成为类别不平衡,是指各个类别的样本数目相差悬殊的情况。下面以多数类表示有很多样本的类别,少数类表示样本数目很少的类别。样本不平衡的