首页 > 其他分享 >UCB Data100:数据科学的原理和技巧:第十六章到第二十章

UCB Data100:数据科学的原理和技巧:第十六章到第二十章

时间:2024-01-12 23:55:07浏览次数:33  
标签:mathbb Data100 text 模型 第二十章 UCB theta hat 我们

十六、交叉验证和正则化

Cross Validation and Regularization

译者:飞龙

协议:CC BY-NC-SA 4.0

学习成果

  • 认识到需要验证和测试集来预览模型在未知数据上的表现

  • 应用交叉验证来选择模型超参数

  • 了解 L1 和 L2 正则化的概念基础

在特征工程讲座结束时(第 14 讲),我们提出了调整模型复杂度的问题。我们发现一个过于复杂的模型会导致过拟合,而一个过于简单的模型会导致欠拟合。这带来了一个自然的问题:我们如何控制模型复杂度以避免欠拟合和过拟合?

为了回答这个问题,我们需要解决两件事:首先,我们需要通过评估模型在未知数据上的表现来了解何时我们的模型开始过拟合。我们可以通过交叉验证来实现这一点。其次,我们需要引入一种调整模型复杂度的技术 - 为此,我们将应用正则化

16.1 训练、测试和验证集

从上一讲中,我们了解到增加模型复杂度减少了模型的训练误差,但增加了它的方差。这是很直观的:添加更多的特征使我们的模型更紧密地拟合了训练过程中遇到的数据,但对新数据的泛化能力更差。因此,低训练误差并不总是代表我们模型的基本性能 - 我们还需要评估它在未知数据上的表现,以确保它没有过拟合。

事实上,唯一知道我们的模型何时过拟合的方法是在未知数据上评估它。不幸的是,这意味着我们需要等待更多的数据。这可能非常昂贵和耗时。

我们应该如何进行?在本节中,我们将建立一个可行的解决方案来解决这个问题。

16.1.1 测试集

避免过拟合的最简单方法是将一些数据“保密”不让自己知道。我们可以将完整数据集的随机部分保留下来,仅用于测试目的。这个测试集中的数据点会用于模型拟合过程。相反,我们将:

  • 使用我们数据集的剩余部分 - 现在称为训练集 - 运行普通最小二乘法、梯度下降或其他一些技术来拟合模型参数

  • 拿到拟合的模型并用它对测试集中的数据点进行预测。模型在测试集上的表现(以 MSE、RMSE 等表示)现在表明了它在未知数据上的预测能力有多好

重要的是,最佳模型参数是通过考虑训练集中的数据找到的。在模型拟合到训练数据之后,我们在进行测试集上的预测之前不改变任何参数。重要的是,我们在最终确定所有模型设计后,只对测试集进行一次预测。我们将测试集的表现视为模型表现的最终测试。

将我们的数据集分成训练集和测试集的过程被称为训练-测试拆分。通常,10%到 20%的数据被分配给测试集。

train-test-split

sklearn中,model_selection模块的train_test_split函数允许我们自动生成训练-测试拆分。

在今天的工作中,我们将继续使用之前讲座中的vehicles数据集。与以往一样,我们将尝试从hp的转换中预测车辆的mpg。在下面的单元格中,我们将完整数据集的 20%分配给测试,剩下的 80%分配给训练。

代码

import pandas as pd
import numpy as np
import seaborn as sns
import warnings
warnings.filterwarnings('ignore')

# Load the dataset and construct the design matrix
vehicles = sns.load_dataset("mpg").rename(columns={"horsepower":"hp"}).dropna()
X = vehicles[["hp"]]
X["hp^2"] = vehicles["hp"]**2
X["hp^3"] = vehicles["hp"]**3
X["hp^4"] = vehicles["hp"]**4

Y = vehicles["mpg"]
from sklearn.model_selection import train_test_split

# `test_size` specifies the proportion of the full dataset that should be allocated to testing
# `random_state` makes our results reproducible for educational purposes
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state=220)

print(f"Size of full dataset: {X.shape[0]} points")
print(f"Size of training set: {X_train.shape[0]} points")
print(f"Size of test set: {X_test.shape[0]} points")
Size of full dataset: 392 points
Size of training set: 313 points
Size of test set: 79 points

在进行训练-测试拆分后,我们将模型拟合到训练集,并评估其在测试集上的表现。

import sklearn.linear_model as lm
from sklearn.metrics import mean_squared_error

model = lm.LinearRegression()

# Fit to the training set
model.fit(X_train, Y_train)

# Make predictions on the test set
test_predictions = model.predict(X_test)

16.1.2 验证集

现在,如果我们对测试集的性能不满意怎么办?按照我们目前的框架,我们就会陷入困境。如前所述,评估模型在测试集上的性能是模型设计过程的最终阶段。我们不能回头根据新发现的过拟合来调整模型 - 如果这样做,我们就会考虑测试集的信息来设计我们的模型。测试误差将不再是模型在未见数据上性能的真实代表!

我们的解决方案是引入一个验证集。验证集是训练集的一个随机部分,用于在模型仍在开发中时评估模型性能。使用验证集的过程是:

  • 进行训练-测试分割。将测试集放在一边;直到模型设计过程的最后才会使用。

  • 设置一部分训练集用于验证。

  • 将模型参数拟合到剩余训练集中包含的数据点。

  • 评估模型在验证集上的性能。根据需要调整模型,重新拟合剩余部分的训练集,然后在验证集上重新评估。如有必要,重复此过程直到满意为止。

  • 所有模型开发完成后,评估模型在测试集上的性能。这是模型在未见数据上表现如何的最终测试。不应对模型进行进一步修改。

创建验证集的过程称为验证分割

validation-split

请注意,验证误差与之前探讨的训练误差行为有很大不同。回想一下,训练误差随着模型度数的增加而单调递减 - 随着模型变得更复杂,它在训练数据上做出了更好的预测。相反,验证误差在增加模型复杂度时先减少然后增加。这反映了从欠拟合到过拟合的转变。在低模型复杂度时,模型欠拟合,因为它不够复杂以捕捉数据的主要趋势。在高模型复杂度时,模型过拟合,因为它对训练数据进行了过于紧密的“记忆”。

我们可以更新我们对误差、复杂度和模型方差之间关系的理解:

training_validation_curve

我们的目标是训练一个复杂度接近橙色虚线的模型 - 这是我们的模型在验证集上达到最小误差的地方。请注意,这种关系是对现实世界的简化。但对于 Data 100 来说,这已经足够了。

16.2 K-Fold Cross-Validation

引入验证集给了我们一个“额外”的机会,评估模型在另一组未见数据上的性能。我们能够根据模型在这一组验证数据上的性能来微调模型设计。

但是,如果碰巧我们的验证集包含了很多异常值怎么办?可能我们设置的验证数据点实际上并不代表模型可能遇到的其他未见数据。理想情况下,我们希望在几个不同的未见数据集上验证模型的性能。这将让我们更加自信地了解模型在新数据上的行为。

让我们回顾一下我们的验证框架。之前,我们设置了训练数据的 x%(比如 20%)用于验证。

validation_set

在上面的例子中,我们设置了前 20%的训练数据点作为验证集。这是一个任意的选择。我们可以将任何20%的训练数据用于验证。事实上,有 5 个不重叠的“块”训练数据点,我们可以指定为验证集。

possible_validation_sets

其中一个这样的块的常见术语是折叠。在上面的示例中,我们有 5 个折叠,每个折叠包含 20%的训练数据。这给了我们一个新的视角:我们在我们的训练集中实际上有5个“隐藏”的验证集。

交叉验证中,我们为训练集中的每个折叠执行验证拆分。对于具有\(K\)个折叠的数据集,我们:

  • 选择一个折叠作为验证折叠

  • 将模型拟合到除验证折叠之外的每个折叠的训练数据

  • 计算验证折叠上的模型误差并记录它

  • 对所有\(K\)个折叠重复

交叉验证误差然后是所有\(K\)个验证折叠的平均误差。cross_validation

16.2.1 模型选择工作流程

在这个阶段,我们已经完善了我们的模型选择工作流程。我们首先执行训练-测试拆分,以设置一个测试集,用于最终评估模型性能。然后,我们在调整设计矩阵和计算交叉验证误差之间交替,以微调模型的设计。在下面的示例中,我们说明了使用 4 折交叉验证来帮助确定模型设计。

model_selection

16.2.2 超参数

交叉验证的一个重要用途是进行超参数选择。超参数是模型中在模型拟合到任何数据之前选择的一些值。这意味着它与模型参数\(\theta_i\)不同,因为它的值是在训练过程开始之前选择的。我们不能使用我们通常的技术 - 微积分、普通最小二乘法或梯度下降 - 来选择它的值。相反,我们必须自己决定。

Data 100 中一些超参数的例子是:

  • 我们的多项式模型的程度(回想一下,在创建设计矩阵和调用.fit之前我们选择了程度)

  • 梯度下降中的学习率\(\alpha\)

  • 正则化惩罚\(\lambda\)(稍后将介绍)

为了通过交叉验证选择超参数值,我们首先列出了几个关于最佳超参数可能是什么的“猜测”。对于每个猜测,我们然后运行交叉验证,计算模型在使用该超参数值时产生的交叉验证误差。然后我们选择导致最低交叉验证误差的超参数值。

例如,我们可能希望使用交叉验证来决定我们应该使用什么值作为\(\alpha\),它控制每次梯度下降更新的步长。为此,我们列出了最佳\(\alpha\)的一些可能猜测:0.1、1 和 10。对于每个可能的值,我们执行交叉验证,看当我们使用该\(\alpha\)值来训练模型时,模型产生了什么错误。

hyperparameter_tuning

16.3 正则化

我们现在已经解决了今天的两个目标中的第一个:创建一个框架来评估模型在未见数据上的性能。现在,我们将讨论我们的第二个目标:开发一种调整模型复杂性的技术。这将使我们能够直接解决欠拟合和过拟合的问题。

早些时候,我们通过调整超参数(多项式的程度)来调整多项式模型的复杂性。我们尝试了几个不同的多项式程度,计算了每个的验证误差,并选择了最小化验证误差的值。调整“复杂性”很简单;只需要调整多项式程度。

在大多数机器学习问题中,复杂性的定义与我们迄今为止所见的不同。今天,我们将探讨复杂性的两种不同定义:\(\theta_i\)系数的平方绝对大小。

16.3.1 约束模型参数

回想一下我们使用梯度下降来下降损失曲面的工作。您可能会发现参考梯度下降笔记来提醒自己会很有帮助。我们的目标是找到导致模型损失最小的模型参数组合。我们通过在水平和垂直轴上绘制可能的参数值来使用等高线图来可视化这一点,这使我们可以从上方鸟瞰损失曲面。我们希望找到对应于损失曲面上最低点的模型参数。

unconstrained

让我们回顾一下我们当前的建模框架。

\[\hat{\mathbb{Y}} = \theta_0 + \theta_1 \phi_1 + \theta_2 \phi_2 + \ldots + \theta_p \phi_p \]

回想一下,我们用\(\phi_i\)表示我们的特征,以反映我们进行了特征工程的事实。

以前,我们通过限制模型中存在的特征的总数来限制模型的复杂性。我们一次只包括有限数量的多项式特征;所有其他多项式都被排除在模型之外。

如果我们不是完全删除特定特征,而是保留所有特征,并且每个特征只使用“一点点”,会怎么样?如果我们限制每个特征对预测的贡献,我们仍然可以控制模型的复杂性,而无需手动确定应该删除多少个特征。

我们所说的“一点点”是什么意思?考虑某个参数\(\theta_i\)接近或等于 0 的情况。那么,特征\(\phi_i\)几乎不会影响预测 - 特征的权重值如此之小,以至于它的存在并不会显著改变\(\hat{\mathbb{Y}\)的值。如果我们限制每个参数\(\theta_i\)的大小,我们就限制了特征\(\phi_i\)对模型的贡献。这会减少模型的复杂性。

正则化中,我们通过对模型参数\(\theta_i\)的大小设置限制来限制模型的复杂性。

这些限制看起来是什么样子?假设我们规定所有绝对参数值的总和不能大于某个数字\(Q\)。换句话说:

\[\sum_{i=1}^p |\theta_i| \leq Q \]

其中\(p\)是模型中参数的总数。您可以将这看作是我们为模型分配每个参数的大小的“预算”。如果模型为某些\(\theta_i\)分配了一个较大的值,它可能必须为其他一些\(\theta_j\)分配一个较小的值。这会增加特征\(\phi_i\)对预测的影响,同时减少特征\(\phi_j\)的影响。模型需要战略地分配参数权重 - 理想情况下,更“重要”的特征将获得更大的权重。

请注意,截距项\(\theta_0\)不受此约束的影响。我们通常不对截距项进行正则化

现在,让我们回想一下梯度下降,并将损失曲面可视化为等高线图。损失曲面表示每个点代表模型对\(\theta_1\)、\(\theta_2\)的特定组合的损失。假设我们的目标是找到使我们获得最低损失的参数组合。

constrained_gd

在没有约束的情况下,最优的\(\hat{\theta}\)位于中心。

应用这个约束限制了模型参数的有效组合。现在我们只能考虑总绝对和小于或等于我们的数字\(Q\)的参数组合。这意味着我们只能将我们的正则化参数向量\(\hat{\theta}_{\text{Reg}}\)分配到下面绿色菱形中的位置。

diamondreg

我们不能再选择真正最小化损失曲面的参数向量\(\hat{\theta}_{\text{No Reg}}\),因为这组参数不在我们允许的区域内。相反,我们选择任何允许的组合,使我们尽可能接近真正的最小损失。

diamond

请注意,在正则化下,我们优化的\(\theta_1\)和\(\theta_2\)的值要比没有正则化时小得多(确实,\(\theta_1\)已经减少到 0)。模型的复杂度降低,因为我们限制了特征对模型的贡献。事实上,通过将其参数设置为 0,我们有效地从模型中完全删除了特征\(\phi_1\)的影响。

如果我们改变\(Q\)的值,我们就改变了允许的参数组合区域。模型仍然会选择产生最低损失的参数组合——最接近受约束区域中真正的最小化器\(\hat{\theta}_{\text{No Reg}}\)的点。

如果我们使\(Q\)更小:diamondpoint如果我们使\(Q\)更大:largerq

  • 当\(Q\)很小时,我们严重限制参数的大小。\(\theta_i\)的值很小,特征\(\phi_i\)对模型的贡献很小。模型参数的允许区域收缩,模型变得简单得多。

  • 当\(Q\)很大时,我们并不严重限制参数的大小。\(\theta_i\)的值很大,特征\(\phi_i\)对模型的贡献更大。模型参数的允许区域扩大,模型变得更复杂。

考虑当\(Q\)极大时的极端情况。在这种情况下,我们的限制基本上没有效果,允许的区域包括 OLS 解!

verylarge

现在如果\(Q\)非常小会怎么样?我们的参数将被设置为(基本上是 0)。如果模型没有截距项:\(\hat{\mathbb{Y}} = (0)\phi_1 + (0)\phi_2 + \ldots = 0\)。如果模型有一个截距项:\(\hat{\mathbb{Y}} = (0)\phi_1 + (0)\phi_2 + \ldots = \theta_0\)。请记住,截距项被排除在约束之外——这样我们就避免了总是预测 0 的情况。

让我们总结一下我们所看到的。

summary

16.4 L1(LASSO)正则化

我们如何实际应用我们的约束\(\sum_{i=1}^p |\theta_i| \leq Q\)?我们将通过修改我们在拟合模型时寻求最小化的目标函数来实现。

回想一下我们的普通最小二乘目标函数:我们的目标是找到最小化模型均方误差的参数。

\[\frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2 = \frac{1}{n} \sum_{i=1}^n (y_i - (\theta_0 + \theta_1 \phi_{i, 1} + \theta_2 \phi_{i, 2} + \ldots + \theta_p \phi_{i, p}))^2 \]

要应用我们的约束,我们需要重新表述我们的最小化目标。

\[\frac{1}{n} \sum_{i=1}^n (y_i - (\theta_0 + \theta_1 \phi_{i, 1} + \theta_2 \phi_{i, 2} + \ldots + \theta_p \phi_{i, p}))^2\:\text{such that} \sum_{i=1}^p |\theta_i| \leq Q \]

不幸的是,我们不能直接使用这个公式作为我们的目标函数——在约束上进行数学优化并不容易。相反,我们将应用拉格朗日对偶的魔力。这方面的细节超出了范围(如果你有兴趣了解更多,请参加 EECS 127 课程),但最终结果非常有用。事实证明,最小化以下增广目标函数等同于我们上面的最小化目标。

\[\frac{1}{n} \sum_{i=1}^n (y_i - (\theta_0 + \theta_1 \phi_{i, 1} + \theta_2 \phi_{i, 2} + \ldots + \theta_p \phi_{i, p}))^2 + \lambda \sum_{i=1}^p \vert \theta_i \vert = ||\mathbb{Y} - \mathbb{X}\theta||_2^2 + \lambda \sum_{i=1}^p |\theta_i| \]

这两个表达式中的第二个包括使用向量表示的 MSE。

注意,我们已经用目标函数中的第二项替换了约束。我们现在正在最小化一个带有额外正则化项的函数,该项惩罚大的系数。为了最小化这个新的目标函数,我们最终会平衡两个组成部分:

  • 保持模型在训练数据上的误差低,表示为术语\(\frac{1}{n} \sum_{i=1}^n (y_i - (\theta_0 + \theta_1 x_{i, 1} + \theta_2 x_{i, 2} + \ldots + \theta_p x_{i, p}))^2\)

  • 同时,保持模型参数的幅度低,表示为术语\(\lambda \sum_{i=1}^p |\theta_i|\)

\(\lambda\)因子控制正则化的程度。粗略地说,\(\lambda\)与之前的\(Q\)约束相关,规则为\(\lambda \approx \frac{1}{Q}\)。

为了理解原因,让我们考虑两个极端的例子:

  • 假设\(\lambda \rightarrow \infty\)。那么,\(\lambda \sum_{j=1}^{d} \vert \theta_j \vert\) 主导成本函数。为了最小化这个项,我们对所有\(j \ge 1\)设置\(\theta_j = 0\)。这是一个非常受限的模型,从数学上讲等同于常数模型。早些时候,我们解释了当 L2 范数球半径\(Q \rightarrow 0\)时,常数模型也会出现。

  • 假设\(\lambda \rightarrow 0\)。那么,\(\lambda \sum_{j=1}^{d} \vert \theta_j \vert\)为 0。最小化成本函数等价于\(\min_{\theta} \frac{1}{n} || Y - X\theta ||_2^2\),我们通常的 MSE 损失函数。最小化 MSE 损失的行为就是我们熟悉的 OLS,最优解是全局最小值\(\hat{\theta} = \hat\theta_{No Reg.}\)。我们表明当 L2 范数球半径\(Q \rightarrow \infty\)时,全局最优解被实现。

我们称\(\lambda\)为正则化惩罚超参数,并通过交叉验证选择其值。

找到最优\(\hat{\theta}\)以最小化我们的新目标函数的过程称为L1 正则化。它有时也被称为首字母缩写“LASSO”,代表“最小绝对收缩和选择算子”。

与普通最小二乘法不同,可以通过封闭形式解\(\hat{\theta}_{OLS} = (\mathbb{X}^{\top}\mathbb{X})^{-1}\mathbb{X}^{\top}\mathbb{Y}\)来解决,L1 正则化下的最优参数向量没有封闭形式解。相反,我们使用sklearnLasso模型类。

import sklearn.linear_model as lm

# The alpha parameter represents our lambda term
lasso_model = lm.Lasso(alpha=2)
lasso_model.fit(X_train, Y_train)

lasso_model.coef_
array([-2.54932056e-01, -9.48597165e-04,  8.91976284e-06, -1.22872290e-08])

注意所有模型系数的幅度都非常小。实际上,其中一些系数非常小,基本上为 0。L1 正则化的一个重要特征是许多模型参数被设置为 0。换句话说,LASSO 有效地只选择了一部分特征。这一原因可以追溯到我们先前的损失曲面和允许的“菱形”区域 - 我们通常可以在菱形的一个角附近更接近最低损失轮廓,而不是沿着边缘。

当模型参数设置为 0 或接近 0 时,其对应的特征基本上从模型中移除了。我们说 L1 正则化执行特征选择,因为通过将不重要特征的参数设置为 0,LASSO“选择”了哪些特征对建模更有用。

16.5 特征缩放用于正则化

我们刚刚执行的正则化过程有一个微妙的问题。为了看清楚,让我们来看看我们的lasso_model的设计矩阵。

X_train.head()
hp hp^2 hp^3 hp^4
259 85.0 7225.0 614125.0 52200625.0
129 67.0 4489.0 300763.0 20151121.0
207 102.0 10404.0 1061208.0 108243216.0
302 70.0 4900.0 343000.0 24010000.0
71 97.0 9409.0 912673.0 88529281.0

我们的特征——hphp^2hp^3hp^4——在数值尺度上有着截然不同的差异!hp^4中的值比hp中的值大几个数量级!这可能是一个问题,因为hp^4的值自然上会对每个预测的\(\hat{y}\)贡献更多,因为它比其他特征的值大得多。对于hp对每个预测产生影响,它必须被一个大的模型参数所缩放。

通过检查我们模型的拟合参数,我们发现这种情况确实存在——hp的参数的数量级远大于hp^4的参数。

pd.DataFrame({"Feature":X_train.columns, "Parameter":lasso_model.coef_})
Feature Parameter
0 hp -2.549321e-01
1 hp^2 -9.485972e-04
2 hp^3 8.919763e-06
3 hp^4 -1.228723e-08

通过应用正则化,我们给我们的模型一个“预算”,来分配模型参数的值。为了让hp对每个预测产生影响,LASSO 被迫在hp的参数上“花费”更多的预算。

我们可以通过在正则化之前对数据进行缩放来避免这个问题。这是一个过程,我们将所有特征转换为相同的数值尺度。一个常见的缩放数据的方法是进行标准化,使得所有特征的均值为 0,标准差为 1;基本上,我们用 Z 分数替换所有内容。

\[z_k = \frac{x_k - \mu_k}{\sigma_k} \]

16.6 L2(岭)正则化

在我们上面的所有工作中,我们考虑了约束\(\sum_{i=1}^p |\theta_i| \leq Q\)来限制模型的复杂性。如果我们应用了不同的约束会怎样呢?

在 L2 正则化中,也被称为岭回归,我们约束模型,使得平方参数的总和必须小于某个数\(Q\)。这个约束的形式如下:

\[\sum_{i=1}^p \theta_i^2 \leq Q \]

与以前一样,我们通常不对截距项进行正则化。

对于给定的\(Q\)值,参数的允许区域现在呈球状。

green_constrained_gd_sol

如果我们像之前一样修改我们的目标函数,我们发现我们的新目标是最小化函数:$$\frac{1}{n} \sum_{i=1}^n (y_i - (\theta_0 + \theta_1 \phi_{i, 1} + \theta_2 \phi_{i, 2} + \ldots + \theta_p \phi_{i, p}))^2:\text{such that} \sum_{i=1}^p \theta_i^2 \leq Q$$

请注意,我们所做的只是改变了模型参数的约束。表达式中的第一项,均方误差,没有改变。

使用拉格朗日对偶性,我们可以重新表达我们的目标函数为:$$\frac{1}{n} \sum_{i=1}^n (y_i - (\theta_0 + \theta_1 \phi_{i, 1} + \theta_2 \phi_{i, 2} + \ldots + \theta_p \phi_{i, p}))^2 + \lambda \sum_{i=1}^p \theta_i^2 = ||\mathbb{Y} - \mathbb{X}\theta||2^2 + \lambda \sum^p \theta_i^2$$

应用 L2 正则化时,我们的目标是最小化这个更新的目标函数。

与 L1 正则化不同,L2 正则化在应用正则化时确实有一个最佳参数向量的封闭形式解:

\[\hat\theta_{\text{ridge}} = (\mathbb{X}^{\top}\mathbb{X} + n\lambda I)^{-1}\mathbb{X}^{\top}\mathbb{Y} \]

即使\(\mathbb{X}\)不是完全列秩,这个解仍然存在。这是 L2 正则化经常被使用的一个主要原因——即使特征中存在共线性,它也可以产生一个解。我们将在未来的讲座中讨论共线性的概念。我们不会在 Data 100 中推导这个结果,因为它涉及相当多的矩阵微积分。

sklearn中,我们使用Ridge类来执行 L2 正则化。请注意,在正则化之前我们会对数据进行缩放。

ridge_model = lm.Ridge(alpha=1) # alpha represents the hyperparameter lambda
ridge_model.fit(X_train, Y_train)

ridge_model.coef_
array([ 5.89130559e-02, -6.42445915e-03,  4.44468157e-05, -8.83981945e-08])

16.7 回归总结

我们的回归模型总结如下。请注意,目标函数是梯度下降优化器最小化的内容。

类型 模型 损失 正则化 目标函数 解决方案
普通最小二乘法(OLS) \(\hat{\mathbb{Y}} = \mathbb{X}\theta\) 均方误差 \(\frac{1}{n} |\mathbb{Y}-\mathbb{X} \theta|^2_2\) \(\hat{\theta}_{OLS} = (\mathbb{X}^{\top}\mathbb{X})^{-1}\mathbb{X}^{\top}\mathbb{Y}\) 如果 \(\mathbb{X}\) 是满秩的
岭回归 \(\hat{\mathbb{Y}} = \mathbb{X} \theta\) 均方误差 L2 \(\frac{1}{n} |\mathbb{Y}-\mathbb{X}\theta|^2_2 + \lambda \sum_{i=1}^p \theta_i^2\) \(\hat{\theta}_{ridge} = (\mathbb{X}^{\top}\mathbb{X} + n \lambda I)^{-1}\mathbb{X}^{\top}\mathbb{Y}\)
LASSO \(\hat{\mathbb{Y}} = \mathbb{X} \theta\) 均方误差 L1 \(\frac{1}{n} |\mathbb{Y}-\mathbb{X}\theta|^2_2 + \lambda \sum_{i=1}^p \vert \theta_i \vert\) 无闭式解

十七、随机变量

原文:Random Variables

译者:飞龙

协议:CC BY-NC-SA 4.0

学习成果

  • 以其分布的形式定义随机变量

  • 计算随机变量的期望和方差

  • 熟悉伯努利和二项式随机变量

在过去的几节课中,我们已经考虑了复杂性对模型性能的影响。我们已经考虑了模型复杂性在两个竞争因素之间的权衡:模型方差和训练误差。

到目前为止,我们的分析大部分是定性的。我们已经承认我们对模型复杂性的选择需要在模型方差和训练误差之间取得平衡,但我们还没有讨论为什么会存在这种权衡。

为了更好地理解这种权衡的起源,我们需要引入随机变量的语言。接下来的两节关于概率的讲座将是对我们在建模工作中的一个简短的离题,这样我们就可以建立起理解这所谓的偏差-方差权衡所需的概念。我们接下来几节的路线图将是:

  1. 随机变量估计器:引入随机变量,考虑期望、方差和协方差的概念

  2. 估计器、偏差和方差:用随机变量的术语重新表达模型方差和训练误差的概念,并利用这种新的视角来研究我们对模型复杂性的选择

Data 8 复习

  1. 回顾 Data 8 中的以下概念:

  2. 样本均值:你的随机样本的均值

  3. 中心极限定理:如果你进行了一个带有替换的大样本随机抽样,那么无论总体分布如何,样本均值的概率分布

    1. 大致是正态的

    2. 以总体均值为中心

    3. 有一个\(SD = \frac{\text{总体 SD}}{\sqrt{\text{样本大小}}}\)

17.1 随机变量和分布

假设我们生成了一组随机数据,比如从某个总体中随机抽取的一个随机样本。随机变量是数据中随机性的数值函数。它是随机的,因为我们的样本是随机抽取的;它是变量的,因为它的确切值取决于这个随机样本的结果。因此,我们的随机变量的定义域或输入是一个样本空间中所有可能的(随机的)结果,它的值域或输出是数轴。我们通常用大写字母表示随机变量,如\(X\)或\(Y\)。

17.1.1 分布

对于任何随机变量\(X\),我们需要能够指定两件事:

  1. 可能的值:随机变量可以取得的值的集合。

  2. 概率:描述 100%总概率如何分布在可能值上的概率集合。

如果\(X\)是离散的(有有限个可能的值),随机变量\(X\)取值\(x\)的概率由\(P(X=x)\)给出,概率必须总和为 1:\(\sum_{\text{all} x} P(X=x) = 1\),

我们通常可以使用概率分布表来显示这一点,你将在下面的抛硬币示例中看到。

随机变量\(X\)的分布是对 100%总概率如何分布在\(X\)的所有可能值上的描述,它完全定义了一个随机变量。离散随机变量的分布也可以用直方图表示。如果一个变量是连续的 - 它可以取无限多个值 - 我们可以用密度曲线来说明它的分布。

离散连续

概率是区域。对于离散随机变量,红色条形的面积表示离散随机变量\(X\)落在这些值范围内的概率。对于连续随机变量,曲线下的面积表示离散随机变量\(Y\)落在这些值范围内的概率。

离散连续

如果我们将条形图/密度曲线下的总面积相加,应该得到 100%,或 1。

17.1.2 例子:抛硬币

举个具体的例子,让我们正式定义一个公平的硬币抛掷。一枚公平的硬币可以正面朝上(\(H\))或反面朝上(\(T\)),每种情况的概率都是 0.5。有了这些可能的结果,我们可以将随机变量\(X\)定义为:$$X = \begin{cases} 1, \text{如果硬币正面朝上} \ 0, \text{如果硬币反面朝上} \end{cases}$$

\(X\)是一个具有域或输入\(\{H, T\}\)和值域或输出\(\{1, 0\}\)的函数。我们可以用函数符号表示为$$\begin{cases} X(H) = 1 \ X(T) = 0 \end{cases}$$ \(X\)的概率分布表如下。

\(x\) \(P(X=x)\)
0 \(\frac{1}{2}\)
1 \(\frac{1}{2}\)

假设我们从 Data 100 中所有注册学生中随机抽取一个大小为 3 的样本\(s\)。我们可以将\(Y\)定义为我们样本中数据科学学生的数量。它的域是大小为 3 的所有可能样本,其值域是\(\{0, 1, 2, 3\}\)。

rv

我们可以在下表中显示\(Y\)的分布。左侧的表列出了所有可能的样本\(s\)及其出现次数(\(Y(s)\))。我们可以使用这个来计算右侧的表的值,即概率分布表

分布

17.1.3 模拟

给定随机变量\(X\)的分布,我们如何生成/模拟一个总体?为此,我们可以根据其分布随机选择\(X\)的值,使用np.random.choicedf.sample

17.2 期望和方差

描述随机变量的方法有几种。上面显示的方法 - 所有样本\(s, X(s)\)的表,分布表\(P(X=x)\)和直方图 - 都是完全描述随机变量的定义。通常,用一些数值摘要来描述随机变量比完全定义其分布更容易。这些数值摘要是表征随机变量某些属性的数字。因为它们给出了随机变量的行为倾向的“摘要”,它们不是随机的 - 将它们视为描述随机变量某个属性的静态数字。在 Data 100 中,我们将关注随机变量的期望和方差。

17.2.1 期望

随机变量\(X\)的期望是\(X\)的值的加权平均值,其中权重是每个值发生的概率。有两种等效的计算期望的方法:

  1. 一次应用一个样本的权重:$$\mathbb{E}[X] = \sum_{\text{所有可能的} s} X(s) P(s)$$。

  2. 一次应用权重一个可能的:$$\mathbb{E}[X] = \sum_{\text{所有可能的} x} x P(X=x)$$

我们要强调的是,期望是一个数字,不是一个随机变量。期望是平均值的一种概括,它与随机变量具有相同的单位。它也是概率分布直方图的重心,这意味着如果我们多次模拟变量,它是随机变量的长期平均值。

17.2.1.1 示例 1:抛硬币

回到我们抛硬币的例子,我们将随机变量\(X\)定义为:$$X = \begin{cases} 1, \text{如果硬币正面朝上} \ 0, \text{如果硬币反面朝上} \end{cases}$$ 我们可以使用第二种方法,一次应用权重一个可能的值来计算其期望\(\mathbb{E}[X]\):$$\begin{align} \mathbb{E}[X] &= \sum_{x} x P(X=x) \ &= 1 * 0.5 + 0 * 0.5 \ &= 0.5 \end{align}$$ 请注意,\(\mathbb{E}[X] = 0.5\)不是\(X\)的可能值;这是一个平均值。X 的期望值不需要是 X 的可能值

17.2.1.2 示例 2

考虑随机变量\(X\):

\(x\) \(P(X=x)\)
3 0.1
4 0.2
6 0.4
8 0.3

计算期望,$$\begin{align} \mathbb{E}[X] &= \sum_{x} x P(X=x) \ &= 3 * 0.1 + 4 * 0.2 + 6 * 0.4 + 8 * 0.3 \ &= 0.3 + 0.8 + 2.4 + 2.4 \ &= 5.9 \end{align}$$ 再次注意,\(\mathbb{E}[X] = 5.9\) 不是 \(X\) 的可能值;这是一个平均值。X 的期望值不需要是 X 的可能值

17.2.2 方差

随机变量的方差是其随机误差的度量。它被定义为\(X\)的期望值的平方偏差。更简单地说,方差问:\(X\)通常从其平均值变化多少,仅仅是由于偶然?\(X\)的分布是如何传播的?

\[\text{Var}(X) = \mathbb{E}[(X-\mathbb{E}[X])^2] \]

方差的单位是\(X\)的单位的平方。要将其恢复到正确的比例,使用\(X\)的标准差:$$\text{SD}(X) = \sqrt{\text{Var}(X)}$$

与期望一样,方差是一个数,不是一个随机变量!它的主要用途是量化偶然误差。

根据切比雪夫不等式,你在 Data 8 中看到的,无论\(X\)的分布形状如何,绝大多数的概率都在“期望值加上或减去几个标准差”的区间内。

如果我们展开平方并使用期望的属性,我们可以重新表达方差作为方差的计算公式。当手动计算变量的方差时,这种形式通常更方便使用,并且在均方误差计算中也很有用,因为如果\(X\)是居中的,那么\(\mathbb{E}[X^2] = \text{Var}(X)\)。

\[\text{Var}(X) = \mathbb{E}[X^2] - (\mathbb{E}[X])^2 \]

证明

\[\begin{align} \text{Var}(X) &= \mathbb{E}[(X-\mathbb{E}[X])^2] \\ &= \mathbb{E}(X^2 - 2X\mathbb{E}(X) + (\mathbb{E}(X))^2) \\ &= \mathbb{E}(X^2) - 2 \mathbb{E}(X)\mathbb{E}(X) +( \mathbb{E}(X))^2\\ &= \mathbb{E}[X^2] - (\mathbb{E}[X])^2 \end{align} \]

我们如何计算\(\mathbb{E}[X^2]\)? 任何随机变量的函数也是随机变量 - 这意味着通过平方\(X\),我们创建了一个新的随机变量。要计算\(\mathbb{E}[X^2]\),我们可以简单地将我们的期望值定义应用于随机变量\(X^2\)。

\[\mathbb{E}[X^2] = \sum_{x} x^2 P(X = x) \]

17.2.3 例子:骰子

设\(X\)是单次公平掷骰子的结果。\(X\)是一个随机变量,定义为$$X = \begin{cases} \frac{1}{6}, \text{if } x \in {1,2,3,4,5,6} \ 0, \text{otherwise} \end{cases}$$

期望值 \(\mathbb{E}[X]?\)

\[\begin{align} \mathbb{E}[X] &= 1(\frac{1}{6}) + 2(\frac{1}{6}) + 3(\frac{1}{6}) + 4(\frac{1}{6}) + 5(\frac{1}{6}) + 6(\frac{1}{6}) \\ &= (\frac{1}{6}) ( 1 + 2 + 3 + 4 + 5 + 6) \\ &= \frac{7}{2} \end{align} \]

方差 \(\text{Var}(X)?\)

使用方法 1: $$\begin{align} \text{Var}(X) &= (\frac{1}{6})((1 - \frac{7}{2})^2 + (2 - \frac{7}{2})^2 + (3 - \frac{7}{2})^2 + (4 - \frac{7}{2})^2 + (5 - \frac{7}{2})^2 + (6 - \frac{7}{2})^2) \ &= \frac{35}{12} \end{align}$$

使用方法 2:$$\mathbb{E}[X^2] = \sum_{x} x^2 P(X = x) = \frac{91}{6}$$

\[\text{Var}(X) = \frac{91}{6} - (\frac{7}{2})^2 = \frac{35}{12} \]

17.3 随机变量的和

通常,我们会同时处理多个随机变量。随机变量的函数也是随机变量;如果你基于样本创建多个随机变量,那么这些随机变量的函数也是随机变量。

例如,如果\(X_1, X_2, ..., X_n\)是随机变量,那么这些也是随机变量:

  • \(X_n^2\)

  • \(\#\{i : X_i > 10\}\)

  • \(\text{max}(X_1, X_2, ..., X_n)\)

  • \(\frac{1}{n} \sum_{i=1}^n (X_i - c)^2\)

  • \(\frac{1}{n} \sum_{i=1}^n X_i\)

17.3.1 相等 vs. 相同分布 vs. i.i.d.

假设我们有两个随机变量 \(X\) 和 \(Y\):

  • \(X\) 和 \(Y\) 如果对于每个样本 \(s\) 都有 \(X(s) = Y(s)\) 则它们是相等的。无论抽取的确切样本是什么,\(X\) 总是等于 \(Y\)。

  • 如果\(X\)和\(Y\)的分布相等,则\(X\)和\(Y\)是相同分布的。我们说“X 和 Y 在分布上相等”。也就是说,\(X\)和\(Y\)取相同的可能值集,并且每个可能值都以相同的概率取到。在任何特定的样本\(s\)上,相同分布的变量不一定共享相同的值。如果 X = Y,则 X 和 Y 是相同分布的;然而,反之则不成立(例如:Y = 7-X,X 是一个骰子)

  • 如果

    1. 这些变量是相同分布的。

    2. 知道一个变量的结果不会影响我们对另一个变量结果的信念。

例如,让\(X_1\)和\(X_2\)是两个公平骰子的点数。\(X_1\)和\(X_2\)是 i.i.d,所以\(X_1\)和\(X_2\)具有相同的分布。然而,和\(Y = X_1 + X_1 = 2X_1\)和\(Z=X_1+X_2\)具有不同的分布,但是相同的期望值。

distribution

然而,\(Y = X_1\)的方差更大

distribution

17.3.2 期望值的性质

我们经常直接计算期望值和方差,而不是模拟完整的分布。回顾期望值的定义:$$\mathbb{E}[X] = \sum_{x} x P(X=x)$$ 从中,我们可以推导出期望值的一些有用的性质:

  1. 期望的线性性。常数\(a\)和\(b\)的线性变换\(aX+b\)的期望值是:

\[\mathbb{E}[aX+b] = aE[\mathbb{X}] + b \]

证明

\[\begin{align} \mathbb{E}[aX+b] &= \sum_{x} (ax + b) P(X=x) \\ &= \sum_{x} (ax P(X=x) + bP(X=x)) \\ &= a\sum_{x}P(X=x) + b\sum_{x}P(X=x)\\ &= a\mathbb{E}(X) + b * 1 \end{align} \]

  1. 期望值在随机变量的总和中也是线性的。

\[\mathbb{E}[X+Y] = \mathbb{E}[X] + \mathbb{E}[Y] \]

证明

\[\begin{align} \mathbb{E}[X+Y] &= \sum_{s} (X+Y)(s) P(s) \\ &= \sum_{s} (X(s)P(s) + Y(s)P(s)) \\ &= \sum_{s} X(s)P(s) + \sum_{s} Y(s)P(s)\\ &= \mathbb{E}[X] + \mathbb{E}[Y] \end{align} \]

  1. 如果\(g\)是一个非线性函数,那么一般来说,$$\mathbb{E}[g(X)] \neq g(\mathbb{E}[X])$$ 例如,如果\(X\)以相等的概率为-1 或 1,那么\(\mathbb{E}[X] = 0\),但\(\mathbb{E}[X^2] = 1 \neq 0\).

17.3.3 方差的性质

回顾方差的定义:$$\text{Var}(X) = \mathbb{E}[(X-\mathbb{E}[X])^2]$$ 结合期望值的性质,我们可以推导出方差的一些有用的性质:

  1. 与期望值不同,方差是非线性的。线性变换\(aX+b\)的方差是:$$\text{Var}(aX+b) = a^2 \text{Var}(X)$$
  • 随后,$$\text{SD}(aX+b) = |a| \text{SD}(X)$$

  • 可以通过方差的定义找到这个事实的完整证明。作为一般直觉,考虑\(aX+b\)通过因子\(a\)缩放变量\(X\),然后将\(X\)的分布移位\(b\)单位。

证明

我们知道$$\mathbb{E}[aX+b] = aE[\mathbb{X}] + b$$

为了计算\(\text{Var}(aX+b)\),考虑到 b 单位的移位不会影响扩展,因此\(\text{Var}(aX+b) = \text{Var}(aX)\)。

因此,$$\begin{align} \text{Var}(aX+b) &= \text{Var}(aX) \ &= E((aX)^2) - (E(aX))^2 \ &= E(a^2 X^2) - (aE(X))^2\ &= a^2 (E(X^2) - (E(X))^2) \ &= a^2 \text{Var}(X) \end{align}$$

  • 将分布移位 b 不会 影响分布的扩展。因此,\(\text{Var}(aX+b) = \text{Var}(aX)\)。
  • 通过\(a\)缩放分布 影响分布的扩展。

transformation

  1. 随机变量的和的方差受到随机变量的(不)独立性的影响。$$\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y) + 2\text{cov}(X,Y)$$

\[\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y) \qquad \text{if } X, Y \text{ independent} \]

证明

两个随机变量相加的方差受到它们之间的依赖关系的影响。让我们展开\(\text{Var}(X + Y)\)的定义,看看发生了什么。

为了简化数学,让\(\mu_x = \mathbb{E}[X]\)和\(\mu_y = \mathbb{E}[Y]\)。

\[\begin{align} \text{Var}(X + Y) &= \mathbb{E}[(X+Y- \mathbb{E}(X+Y))^2] \\ &= \mathbb{E}[((X - \mu_x) + (Y - \mu_y))^2] \\ &= \mathbb{E}[(X - \mu_x)^2 + 2(X - \mu_x)(Y - \mu_y) + (Y - \mu_y)^2] \\ &= \mathbb{E}[(X - \mu_x)^2] + \mathbb{E}[(Y - \mu_y)^2] + \mathbb{E}[(X - \mu_x)(Y - \mu_y)] \\ &= \text{Var}(X) + \text{Var}(Y) + \mathbb{E}[(X - \mu_x)(Y - \mu_y)] \end{align} \]

17.3.4 Covariance and Correlation

我们将两个随机变量的协方差定义为期望的偏差乘积。更简单地说,协方差是方差对两个随机变量的泛化:\(\text{Cov}(X, X) = \mathbb{E}[(X - \mathbb{E}[X])^2] = \text{Var}(X)\)

\[\text{Cov}(X, Y) = \mathbb{E}[(X - \mathbb{E}[X])(Y - \mathbb{E}[Y])] \]

我们可以将协方差视为一种关联度量。还记得我们在建立简单线性回归时给出的相关性定义吗?

\[r(X, Y) = \mathbb{E}\left[\left(\frac{X-\mathbb{E}[X]}{\text{SD}(X)}\right)\left(\frac{Y-\mathbb{E}[Y]}{\text{SD}(Y)}\right)\right] = \frac{\text{Cov}(X, Y)}{\text{SD}(X)\text{SD}(Y)} \]

事实证明我们一直在悄悄使用协方差!如果\(X\)和\(Y\)是独立的,那么\(\text{Cov}(X, Y) =0\)和\(r(X, Y) = 0\)。然而,请注意,逆命题并不总是成立:\(X\)和\(Y\)可能有\(\text{Cov}(X, Y) = r(X, Y) = 0\)但并不是独立的。

17.3.5 Summary

  • 设\(X\)是一个具有分布\(P(X=x)\)的随机变量。

    • \(\mathbb{E}[X] = \sum_{x} x P(X=x)\)

    • \(\text{Var}(X) = \mathbb{E}[(X-\mathbb{E}[X])^2] = \mathbb{E}[X^2] - (\mathbb{E}[X])^2\)

  • 设\(a\)和\(b\)是标量值。

    • \(\mathbb{E}[aX+b] = aE[\mathbb{X}] + b\)

    • \(\text{Var}(aX+b) = a^2 \text{Var}(X)\)

  • 设\(Y\)是另一个随机变量。

    • \(\mathbb{E}[X+Y] = \mathbb{E}[X] + \mathbb{E}[Y]\)

    • \(\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y) 2\text{cov}(X,Y)\)

十八、估计器、偏差和方差

Estimators, Bias, and Variance

译者:飞龙

协议:CC BY-NC-SA 4.0

学习成果

  • 探索常见的随机变量,如伯努利和二项式分布

  • 应用中心极限定理来近似总体参数

  • 使用抽样数据对真实的潜在分布进行建模估计

  • 使用自助法技术从样本中估计真实总体分布

上次,我们介绍了随机变量的概念:样本的数值函数。在上一讲中,我们的大部分工作是建立概率和统计学的背景。现在我们已经建立了一些关键的思想,我们可以将我们学到的知识应用到我们最初的目标上 - 理解样本的随机性如何影响模型设计过程。

在本讲座中,我们将更深入地探讨将模型拟合到样本的想法。我们将探讨如何用随机变量重新表达我们的建模过程,并利用这种新的理解来引导模型的复杂性。

18.1 常见随机变量

有几种经常出现并且具有有用特性的随机变量情况。以下是我们将在本课程中进一步探讨的情况。括号中的数字是随机变量的参数,这些参数是常数。参数定义了随机变量的形状(即分布)和其值。在本讲座中,我们将更加重点关注加粗的随机变量及其特殊性质,但你应该熟悉下面列出的所有随机变量:

  • 伯努利(p)

    • 以概率 p 取值 1,以概率 1-p 取值 0。

    • 又称“指示”随机变量。

    • 设 X 是一个伯努利(p)随机变量

      • \(\mathbb{E}[X] = 1 * p + 0 * (1-p) = p\)

        • \(\mathbb{E}[X^2] = 1^2 * p + 0 * (1-p) = p\)
      • \(\text{Var}(X) = \mathbb{E}[X^2] - (\mathbb{E}[X])^2 = p - p^2 = p(1-p)\)

  • 二项式(n, p)

    • \(n\) 独立伯努利(p)试验中的 1 的数量。

    • 设\(Y\)是一个二项式(n, p)随机变量。

      • \(Y\)的分布由二项式公式给出,我们可以写成\(Y = \sum_{i=1}^n X_i\),其中:

        • \(X_i\)是第\(i\)次试验成功的指示。如果第\(i\)次试验成功,则\(X_i = 1\),否则为 0。

        • 所有的\(X_i\)都是独立同分布的伯努利(p)。

      • \(\mathbb{E}[Y] = \sum_{i=1}^n \mathbb{E}[X_i] = np\)

      • \(\text{Var}(X) = \sum_{i=1}^n \text{Var}(X_i) = np(1-p)\)

        • \(X_i\)是独立的,所以对于所有的 i, j,\(\text{Cov}(X_i, X_j) = 0\)。
  • 有限值集上均匀分布

    • 每个值的概率是 1 / (可能的值的数量)。

    • 例如,一个标准/公平的骰子。

  • 单位区间(0, 1)上均匀分布

    • 密度在(0, 1)上为 1,在其他地方为 0。
  • 正态(\(\mu, \sigma^2\))

    • \(f(x) = \frac{1}{\sigma\sqrt{2\pi}} \exp\left( -\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^{\!2}\,\right)\)

18.1.1 例子

假设你根据 20 次抛硬币中得到的正面数量赢得现金。如果第\(i\)次抛硬币得到正面,则令\(X_i = 1\),否则为 0。你会选择哪种支付策略?

A. \(Y_A = 10 * X_1 + 10 * X_2\)

B. \(Y_B = \sum_{i=1}^{20} X_i\)

C. \(Y_C = 20 * X_1\)

解决方案

设\(X_1, X_2, ... X_{20}\)是 20 个独立同分布的伯努利(0.5)随机变量。由于\(X_i\)是独立的,对于所有的\(i, j\)对,\(\text{Cov}(X_i, X_j) = 0\)。另外,由于\(X_i\)是伯努利(0.5),我们知道\(\mathbb{E}[X] = p = 0.5\)和\(\text{Var}(X) = p(1-p) = 0.25\)。我们可以计算每种情况的如下内容:

A. \(Y_A = 10 * X_1 + 10 * X_2\) B. \(Y_B = \sum_{i=1}^{20} X_i\) C. \(Y_C = 20 * X_1\)
期望 \(\mathbb{E}[Y_A] = 10 (0.5) + 10(0.5) = 10\) \(\mathbb{E}[Y_B] = 0.5 + ... + 0.5 = 10\) \(\mathbb{E}[Y_C] = 20(0.5) = 10\)
方差 \(\text{Var}(Y_A) = 10^2 (0.25) + 10^2 (0.25) = 50\) \(\text{Var}(Y_B) = 0.25 + ... + 0.25 = 5\) \(\text{Var}(Y_C) = 20^2 (0.25) = 100\)
标准差 \(\text{SD}(Y_A) \approx 7.07\) \(\text{SD}(Y_B) \approx 2.24\) \(\text{SD}(Y_C) = 10\)

正如我们所看到的,所有的情景都有相同的期望值,但方差不同。方差越大,风险和不确定性就越大,因此“正确”的策略取决于个人的偏好。你会选择“最安全”的选项 B,最“冒险”的选项 C,还是介于两者之间的选项 A?

18.2 样本统计

今天,我们已经广泛讨论了总体;如果我们知道随机变量的分布,我们可以可靠地计算期望、方差、随机变量的函数等。请注意:

  • 总体的分布描述了随机变量在所有感兴趣的个体中的行为。

  • 样本的分布描述了随机变量在来自总体的特定样本中的行为。

然而,在数据科学中,我们经常无法接触到整个总体,因此我们不知道它的分布。因此,我们需要收集一个样本,并使用它的分布来估计或推断总体的属性。在这种情况下,我们可以从总体中取几个大小为\(n\)的样本(一个简单的方法是使用df.sample(n, replace=True)),并计算每个样本的均值。在抽样时,我们做出(很大的)假设,即我们从总体中均匀随机地进行有放回抽样;我们样本中的每个观察都是从我们的总体分布中独立同分布地随机抽取的随机变量。请记住,我们的样本均值是一个随机变量,因为它取决于我们随机抽取的样本!另一方面,我们的总体均值只是一个数字(一个固定的值)。

18.2.1 样本均值

考虑一个从具有均值

标签:mathbb,Data100,text,模型,第二十章,UCB,theta,hat,我们
From: https://www.cnblogs.com/apachecn/p/17961823

相关文章

  • 大话 JavaScript(Speaking JavaScript):第十六章到第二十章
    第十六章:变量:作用域、环境和闭包原文:16.Variables:Scopes,Environments,andClosures译者:飞龙协议:CCBY-NC-SA4.0本章首先解释了如何使用变量,然后详细介绍了它们的工作方式(环境、闭包等)。声明变量在JavaScript中,您在使用变量之前通过var语句声明变量:varfoo;foo......
  • UCB-CS170 笔记
    图论DFS记录一下一个OI中没怎么学会的知识点上图是一个DFS遍历,pre数组记录了每个节点最初被访问的时间,post数组记录了每个节点最后被访问的时间(进出栈的时间)根据两个数组,可以将所有边分为四类树边(TreeEdge):DFS树中的边后向边(BackEdge):从一个节点到其祖先的边......
  • 信息系统项目管理师 第二十章-项目集管理
    1.项目集管理概述562项目管理协会PMI将项目集定义为:经过协调管理以获取单独管理所无法取得的收益的一组相关联的项目、子项目集合项目集活动。1.项目集管理标准若干面向特定项目集得活动,这些活动由项目集经理履行,但不直接属于任何项目集内单个子项目集或项目的活动。2.......
  • python:第二十章:数据类型转换之bool
    一,如何得到对象的布尔值?Python中,所有的数据都是对象,如整数、浮点数、字符串、列表、字典等。每个对象都有一个布尔值,用于表示对象的真假内置函数bool()能用来获取对象的布尔值。它把对象转换为布尔值,返回True或False,表示对象为真或假看例子:非0数字的布尔值为True,0的布尔值......
  • UCB-Sysadmin 笔记
    LinuxSystemAdministrationDecalAcoursecoveringthebasicsofsettingupandadministeringaproduction-qualityLinuxserverenvironment.Lab1找出隐藏文件ls-a连接输出,然后删除文件catnaming_is_hard*|xargs#stanford>berkeleyrm-rfn......
  • 第二十章 反射机制
    20.1基本概念通常情况下编写代码都是固定的,无论运行多少次执行的结果也是固定的,在某些特殊场合中编写代码时不确定要创建什么类型的对象,也不确定要调用什么样的方法,这些都希望通过运行时传递的参数来决定,该机制叫做动态编程技术,也就是反射机制。通俗来说,反射机制就是用于动......
  • Web阶段:第二十章:Ajax请求
    什么是Ajax请求?AJAX即“AsynchronousJavascriptAndXML”(异步JavaScript和XML),是指一种创建交互式网页应用的网页开发技术。ajax是一种浏览器异步发起请求。局部更新页面的技术。1、异步发起请求2、局部更新页面原生Ajax请求的实现(了解)<scripttype="text/javascript">func......
  • 《摆与混》第二十章--7月22日--周六
    周末,周末,周末!!!!1.今天做了什么:今天9点起床(大成功)。洗漱后,妈妈带了早饭给我吃(炸酱面),上午正常学习,又看了会番剧,下午摆烂时间,4点半和哥们出发健身锻炼(坚持),晚上跟哥们一起吃了个饭(找到了一家宝藏店,赶紧给个差评,别让别人发现了),大计划的周末,启动!!!2.解决了什么问题:Java课程推进,PTA继续冲击......
  • 《无垠的太空(7).波斯波利斯崛起》太阳系征服战1(第二十章:博比)
    第二十章:博比   扩展阅读《无垠的太空(7).波斯波利斯崛起》速读:https://www.cnblogs.com/rockyching2009/p/16790702.html《无垠的太空(7).波斯波利斯崛起》合集:https://www.cnblogs.com/rockyching2009/category/2238049.html《无垠的太空(9).利维坦陨落》全集:https://......
  • 《DFZU2EG_4EV MPSoC之嵌入式Linux开发指南》第二十章 Linux设备树​
    Linux设备树​前面章节中我们多次提到“设备树”这个概念,因为时机未到,所以当时并没有详细的讲解什么是“设备树”,本章我们就来详细的谈一谈设备树。掌握设备树是Linux驱动开......