首页 > 其他分享 >《动手学深度学习 Pytorch版》 4.9 环境和分布偏移

《动手学深度学习 Pytorch版》 4.9 环境和分布偏移

时间:2023-09-06 09:44:42浏览次数:39  
标签:书本 4.9 详见 Pytorch 分布 偏移 整节

4.9.1 分布偏移的类型

整节理论,详见书本。

4.9.2 分布偏移示例

整节理论,详见书本。

4.9.3 分布偏移纠正

整节理论,详见书本。

4.9.4 学习问题的分类法

整节理论,详见书本。

4.9.5 机器学习中的公平、责任和透明度

整节理论,详见书本。

练习

(1)当我们改变搜索引擎的行为时会发生什么?用户可能会做什么?广告商呢?

搜索结果发生变化。用户可能会由于搜索结果的改变搜索方式,广告商会改变投放位置。


(2)实现一个协变量偏移检测器。提示:构建一个分类器。

不会,略。


(3)实现协变量偏移纠正。

不会,略。


(4)除了分布偏移,还有什么因素会影响经验风险接近真实风险的程度?

比如其他的无效又无法避免的特征。

标签:书本,4.9,详见,Pytorch,分布,偏移,整节
From: https://www.cnblogs.com/AncilunKiang/p/17681475.html

相关文章

  • 《动手学深度学习 Pytorch版》 4.5 权重衰减
    4.5.1范数与权重衰减整节理论,详见书本。4.5.2高维线性回归%matplotlibinlineimporttorchfromtorchimportnnfromd2limporttorchasd2l#生成一些数据,为了使过拟合效果更明显,将维数增加到200并使用一个只包含20个样本的小训练集。n_train,n_test,num_inpu......
  • 《动手学深度学习 Pytorch版》 4.6 暂退法
    importtorchfromtorchimportnnfromd2limporttorchasd2l4.6.1重新审视过拟合整节理论,详见书本。4.6.2扰动的稳健性整节理论,详见书本。4.6.3实践中的暂退法整节理论,详见书本。4.6.4从零开始实现defdropout_layer(X,dropout):assert0<=dropout<=......
  • 循环神经网络--基于pytorch框架
    importmatplotlib.pyplotaspltimportmathimporttorchfromtorchimportnnfromtorch.nnimportfunctionalasffromd2limporttorchasd2lbatch_size,num_steps=32,35train_iter,vocab=d2l.load_data_time_machine(batch_size,num_steps)print(f.......
  • 笔记 | element table show-overflow-tooltip 位置偏移的问题
    一、问题因为我目前的项目是微前端的工程,最外层有一个50px的通用头部,所以页面要减去50px。所有页面看似都很完美,但是使用el-table-column的show-overflow-tooltip属性时,tooltip会向下偏移50px。想到的解决办法:按照el-tooltip的属性更改placement="right"能解决。但......
  • Lnton羚通算法算力云平台【PyTorch】教程:torch.nn.Hardtanh
    torch.nn.Hardtanh原型CLASStorch.nn.Hardtanh(min_val=-1.0,max_val=1.0,inplace=False,min_value=None,max_value=None)参数min_val ([float])–线性区域的最小值,默认为-1max_val ([float])–线性区域的最大值,默认为1inplace ([bool])–默认为Falsetorch.nn.Ha......
  • 自定义CUDA实现PyTorch算子的四种简单方法
    背景在探索新的深度学习算法的时候,我们可能会遇到PyTorch提供的算子不能满足需求的情况,这时候就需要自定义PyTorch算子,将我们的算法集成到PyTorch的工作流中。同时,为了提高运算效率,算子往往都需要使用CUDA实现。所幸,PyTorch及很多其他Python库都提供了简化这一过程的方法,完全不需......
  • Proj CDeepFuzz Paper Reading: Automatic differentiation in PyTorch
    Abstract本文:描述automaticdifferentiationmoduleofPyTorch包括:LuaTorch,Chainer,HIPSAutogradTask:Providesahigh-performanceenvironmentondifferentdevices(bothCPUsandGPUs)方法:不用symbolicdifferentiation,而是使用differentiationonpurelyimper......
  • 《动手学深度学习 Pytorch版》 4.3 多层感知机的简洁实现
    importtorchfromtorchimportnnfromd2limporttorchasd2l模型net=nn.Sequential(nn.Flatten(),nn.Linear(784,256),nn.ReLU(),#与3.7节相比多了一层nn.Linear(256,10))definit_weights(m......
  • Lnton羚通算法算力云平台【PyTorch】教程:torch.nn.Mish
    torch.nn.Mish是PyTorch中的一个激活函数类,它实现了Mish激活函数。Mish是一种近年来提出的激活函数,它在激活函数的设计中引入了自适应斜率。Mish函数的定义如下:Mish(x)=x*tanh(softplus(x))其中softplus(x)是软正值函数,定义为softplus(x)=log(1+exp(x))。Mish函......
  • 《动手学深度学习 Pytorch版》 4.2 多层感知机的从零开始实现
    importtorchfromtorchimportnnfromd2limporttorchasd2l#经典数据集与batchsizebatch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)4.2.1初始化模型为什么不直接使用Tensor而是用nn.Parameter函数将其转换为parameter呢?......