机器学习复习
1 - 哪一个是分类任务的例子?
A. 根据肿瘤的大小,判断是否是恶性肿瘤
B. 根据患者年龄和血压,判断应该给患者开多少血压药
C. 根据患者的血压,判断应该给患者开多少血压药
答案:A
2 - 回忆一下Sigmoid函数:
\[g(z)=\frac{1}{1+e^{-z}} \]如果 z 是一个大的正值,那么:
A. \(g(z)\) 接近-1
B. \(g(z)\) 在0附近
C. \(g(z)\) 在1附近
D. \(g(z)\) 在0.5附近
答案:C
3 - 一张猫咪照片的分类模型,如果是猫咪就预测为1,如果不是猫咪就预测为0。
对于一张特定的照片,逻辑回归模型输出 \(g(z)\)(0到1之间的数字)。哪一个是决定预测它是一只猫的合理标准?
A. \(g(z)\) <0.7 预测它是一只猫
B. \(g(z)\) >=0.5 预测它是一只猫
C. \(g(z)\) =0.5 预测它是一只猫
D. \(g(z)\) <0.5 预测它是一只猫
答案:B
4 - 无论你使用什么特征(包括是否使用多项式特征),通过逻辑回归学到的决策边界将是一个线性决策边界。
A. 错
B. 对
答案:A
5 - 在这周课程中,代价(cost)与损失(loss)具有不同的含义,哪一个运用在一个单个的训练样本上?
A. cost
B. loss
C. 两个都是
D. 两个都不是
答案:B
6 - 对于简化的loss函数,如果标签是0,那么这个表达式可以化简为:
A. \(-\log \left(1-f_{\overrightarrow{\mathrm{w}}, b}\left(\mathbf{x}^{(i)}\right)\right)-\log \left(1-f_{\overrightarrow{\mathrm{w}}, b}\left(\mathbf{x}^{(i)}\right)\right)\)
B. \(+\log \left(1-f_{\overrightarrow{\mathrm{w}}, b}\left(\mathbf{x}^{(i)}\right)\right)+\log \left(1-f_{\overrightarrow{\mathrm{w}}, b}\left(\mathbf{x}^{(i)}\right)\right)\)
C. \(-\log \left(1-f_{\overrightarrow{\mathrm{w}}, b}\left(\mathbf{x}^{(i)}\right)\right)\)
D. \(\log \left(f_{\overrightarrow{\mathrm{w}}, b}\left(\mathbf{x}^{(i)}\right)\right)\)
答案:C
7 - 下面两种说明中,哪种说明关于逻辑回归的梯度下降更加准确?
A. 更新步骤看起来和线性回归的更新步骤一样,但是\(f_{\overrightarrow{\mathrm{w}},b}\left(mathbf{x}^{(i)}\right)\)的定义是不同的
B. 更新步骤和线性回归的更新步骤一样
答案:A
8 - 以下哪一步可以解决过拟合?(多选)
A. 运用正则化
B. 从训练集中移除一个随机集合
C. 从更相关的特征中选择一个子集
D. 收集更多训练数据
答案:ACD
9 - 你使用一个数据集中多项式特征来拟合逻辑回归,你的模型看起来像这样
你能从总结出什么?
A. 这个模型方差较大(过拟合)。因此,增加数据不太可能起到作用
B. 这个模型偏差较大(欠拟合)。因此,增加数据可能起到作用
C. 这个模型方差较大(过拟合)。因此,增加数据可以起到帮助
D. 这个模型偏差较大(欠拟合)。因此,增加数据,不太可能起到帮助
答案:C
10 - 正则化
假定你有一个正则化的线性回归模型。如果你能增加正则化参数\(\lambda\),你期望参数\(w_1,w_2,...,w_n\)发生什么?
A. 这会减小参数规模
B. 这会增加参数规模
答案:A
标签:overrightarrow,right,mathbf,复习,学习,log,机器,mathrm,left From: https://www.cnblogs.com/fyuan0206/p/17501567.html