%matplotlib inline
import random
import torch
from d2l import torch as d2l
3.2.1 生成数据集
为了简单起见,使用易于可视化的低维数据。使用线性模型 \(\boldsymbol{y}=\boldsymbol{Xw}+b+\epsilon\) 生成数据集及其标签,其中合成的数据集是一个矩阵 \(\boldsymbol{X}\in\R^{1000\times2}\),参数 \(\boldsymbol{w}=\left[2,-3.4\right]^T、b=4.2\),噪声项 \(\epsilon\in N(0,{0.01}^2)\)。
def synthetic_data(w, b, num_examples): #@save
"""生成y=Xw+b+噪声"""
X = torch.normal(0, 1, (num_examples, len(w)))
y = torch.matmul(X, w) + b
y += torch.normal(0, 0.01, y.shape)
return X, y.reshape((-1, 1))
# 真实参数
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 1000)
print('features:', features[0], '\nlable:', labels[0]) # feature每行包含一个二维数据样本,labels每行包含一个标量标签值
features: tensor([2.1298, 0.0883])
lable: tensor([8.1534])
d2l.set_figsize()
d2l.plt.scatter(features[:, (1)].detach().numpy(), labels.detach().numpy(), 1) # 用散点图可视化
<matplotlib.collections.PathCollection at 0x23f96379520>
3.2.2 读取数据集
定义一个 data_iter 函数,该函数接收批量大小、特征矩阵和标签向量作为输入,生成大小为 batch_size 的小批量,每个小批量包含一组特征和标签。
def data_iter(batch_size, features, labels):
num_examples = len(features) # 样本总数
indices = list(range(num_examples))
random.shuffle(indices) # 打乱列表元素
for i in range(0, num_examples, batch_size):
batch_indices = torch.tensor(indices[i: min(i + batch_size, num_examples)])
yield features[batch_indices], labels[batch_indices] # 降低内存小妙招:生成器。区别于return,生成器函数的返回生成一个列表一波返回,而是用一个生成一个返回一个,不用的时候是暂停执行的。
batch_size = 10
for X,y in data_iter(batch_size, features, labels): # 小批量计算大概就是这样,一波一波的读
print(X, '\n', y)
break
# 实际上上述函数效率很低,框架内置的迭代器效率高很多,知其意即可。
tensor([[ 0.2036, 0.4717],
[ 0.3787, -1.5764],
[ 1.1944, 2.7301],
[ 0.2739, -0.4185],
[-2.1039, 0.8665],
[-0.1624, -1.3021],
[ 0.8052, -0.9909],
[ 0.3724, 0.9609],
[ 0.0779, -0.9714],
[-0.8306, -0.5290]])
tensor([[ 3.0043],
[10.3214],
[-2.6861],
[ 6.1683],
[-2.9457],
[ 8.3030],
[ 9.1761],
[ 1.6708],
[ 7.6504],
[ 4.3335]])
3.2.3 初始化模型参数
从均值为 0、标准差为 0.01 的正态分布中抽样随机数来初始化权重,并将偏置初始化为 0。
w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True) # 为什么非要把 w 整成(2, 1)的,以至于后面y需要reshape,向量和矩阵效果明明一样的
b = torch.zeros(1, requires_grad=True)
w, b
(tensor([[ 0.0040],
[-0.0168]], requires_grad=True),
tensor([0.], requires_grad=True))
3.2.4 定义模型
定义模型,将模型的输入和参数同模型的输出关联起来。
def linreg(X, w, b): #@save
"""线性回归模型"""
return torch.matmul(X, w) + b
3.2.5 定义损失函数
此处使用平方损失函数
def squared_loss(y_hat, y): #@save
"""均方损失"""
return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2
3.2.6 定义优化算法
定义函数实现小批量随机梯度下降更新,该函数接收模型参数集合、学习率和批量大小作为输入。
def sgd(params, lr, batch_size): #@save
"""小批量随机梯度下降"""
with torch.no_grad(): # 节省内存小妙招利用with关键字自动调用 no_grad 函数 使完成运算后参数 requires_grad 均设为 False。
for param in params:
param -= lr * param.grad / batch_size # 为什么要除以 batch_size ?
param.grad.zero_()
3.2.7 训练
在每次迭代中,先读取小批量样本,并通过模型来获得一组预测。计算完损失后,开始反向传播,存储每个参数的梯度。最后,调用优化算法 sgd 来更新模型参数。总的来说:
- 初始化参数
- 重复以下训练,直到完成:
- 计算梯度 \(\boldsymbol{g}\leftarrow\partial_{(\boldsymbol{w}, b)}\frac{1}{|B|}\sum_{i\in B}l(\boldsymbol{x}^{(i)},\boldsymbol{y}^{(i)},\boldsymbol{w},b)\);
- 更新参数 \((\boldsymbol{w},b)\leftarrow(\boldsymbol{w},b)-\eta\boldsymbol{g}\)
# lr 和 num_epochs 都是超参数,需要反复实验调整,此处忽略这些细节,在11章会详细介绍。
lr = 0.03
num_epochs = 3
net = linreg
loss = squared_loss
for epoch in range(num_epochs):
for X, y in data_iter(batch_size, features, labels):
l = loss(net(X, w, b), y) # X 和 y 的小批量损失
l.sum().backward() # 转换成标量并计算梯度
sgd([w, b], lr, batch_size) # 沿梯度更新参数
with torch.no_grad():
train_l = loss(net(features, w, b), labels)
print(f'epoch{epoch + 1}, loss {float(train_l.mean()):f}')
epoch1, loss 0.033048
epoch2, loss 0.000114
epoch3, loss 0.000047
由于 $ \boldsymbol{w}$ 和 \(b\) 是自己设置的,所以可以很明确的计算出训练得出的参数和真是参数间的差距
print(f'w的估计误差: {true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差: {true_b - b}')
w的估计误差: tensor([ 6.8665e-05, -2.1100e-04], grad_fn=<SubBackward0>)
b的估计误差: tensor([0.0006], grad_fn=<RsubBackward1>)
练习
(1)如果我们将权重初始化为零,会发生什么?算法仍然有效吗?
w = torch.zeros(size=(2, 1), requires_grad=True) # 初始化为 0
b = torch.zeros(1, requires_grad=True)
for epoch in range(num_epochs):
for X, y in data_iter(batch_size, features, labels):
l = loss(net(X, w, b), y) # X 和 y 的小批量损失
l.sum().backward() # 转换成标量并计算梯度
sgd([w, b], lr, batch_size) # 沿梯度更新参数
with torch.no_grad():
train_l = loss(net(features, w, b), labels)
print(f'epoch{epoch + 1}, loss {float(train_l.mean()):f}')
print(f'w的估计误差: {true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差: {true_b - b}')
epoch1, loss 0.033627
epoch2, loss 0.000119
epoch3, loss 0.000047
w的估计误差: tensor([-0.0003, -0.0004], grad_fn=<SubBackward0>)
b的估计误差: tensor([0.0006], grad_fn=<RsubBackward1>)
可以跑,特别是对于这个简单的例子,影响很有限。但是对于更复杂的网络来说出现对称性,使隐层无论有多少神经元都等价于只有一个神经元。详细参见《谈谈神经网络权重为什么不能初始化为0》
(2)假设试图为电压和电流的关系建立一个模型。自动微分可以用来学习模型的参数吗?
可以,电压电流也是线性关系 \(U=wI+b\)
(3)能基于普朗克定律使用光谱能量密度来确定物体的温度吗?
依据百度百科相关内容,普朗克定律写做能量密度频谱的形式为:
\[u_\lambda(\lambda,T)=\frac{8\pi hc}{\lambda^5}\frac{1}{e^{\frac{hc}{\lambda kT}}-1} \]转换得:
\[T=\frac{hc}{\lambda k}\frac{1}{\log(\frac{8\pi hc}{\lambda^5}\frac{1}{u_\lambda(\lambda,T)}+1)} \](4)计算二阶导数时可能会遇到什么问题?这些问题如何解决?
由于调用 backward 函数计算一次梯度后,计算图会被释放。如果想要保留,需要添加 retain_graph=True。所以如果想二次求导(求高阶导倒不是必要得)则需要保留,如2.5.练习(2)
对于高阶导数,仅保留计算图是不够的,还需要使用 creat_graph=True 在保留原图的基础上再建立额外的计算图,之后二阶导直接对前一个grad 调用 backward 函数即可。
另外需要注意在第二次求导前清空梯度,否则会累加。而且需要使用 grad.data.zero_() 而非 grad.zero_(),后者会使 grad_fn=<ZeroBackward0>,导致二阶导为 0。
参考《一文解释 PyTorch求导相关 (backward, autograd.grad)》
x = torch.tensor([1.], requires_grad=True)
y = x**3 # 显然一阶导应该是3 二阶导应该是6
y.backward(retain_graph=True, create_graph=True) # 实际上对于二阶求导retain_graph=True不是必要的
grad1 = x.grad.clone()
x.grad.data.zero_() # 注意清零
x.grad.backward() # 在一阶梯度基础上再次反向传播
grad1, x.grad
(tensor([3.], grad_fn=<CloneBackward0>), tensor([6.], grad_fn=<CopyBackwards>))
(5)为什么再 squared_loss 函数中需要使用 reshape 函数。
因为 y_hat 是向量,而 y 是十行一列的矩阵(虽然不理解为啥非要把 y 搞成矩阵)。
(6)尝试使用不同的学习率,观察损失函数值下降的快慢成都。
num_epochs = 9
for lr in [0.01, 0.02, 0.03, 0.04, 0.05, 0.1, 0.2]:
w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True)
b = torch.zeros(1, requires_grad=True)
print(f'lr={lr}')
for epoch in range(num_epochs):
for X, y in data_iter(batch_size, features, labels):
l = loss(net(X, w, b), y) # X 和 y 的小批量损失
l.sum().backward() # 转换成标量并计算梯度
sgd([w, b], lr, batch_size) # 沿梯度更新参数
with torch.no_grad():
train_l = loss(net(features, w, b), labels)
print(f'epoch{epoch + 1}, loss {float(train_l.mean()):f}')
print('----------')
lr=0.01
epoch1, loss 2.171911
epoch2, loss 0.278664
epoch3, loss 0.036007
epoch4, loss 0.004719
epoch5, loss 0.000656
epoch6, loss 0.000128
epoch7, loss 0.000057
epoch8, loss 0.000048
epoch9, loss 0.000047
----------
lr=0.02
epoch1, loss 0.271833
epoch2, loss 0.004494
epoch3, loss 0.000122
epoch4, loss 0.000048
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.03
epoch1, loss 0.033085
epoch2, loss 0.000116
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.04
epoch1, loss 0.003973
epoch2, loss 0.000049
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.05
epoch1, loss 0.000493
epoch2, loss 0.000047
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000048
----------
lr=0.1
epoch1, loss 0.000048
epoch2, loss 0.000047
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000048
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.2
epoch1, loss 0.000048
epoch2, loss 0.000048
epoch3, loss 0.000048
epoch4, loss 0.000050
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000049
epoch8, loss 0.000050
epoch9, loss 0.000047
----------
可以看到学习率越大下降越快,学习率过大的后果看不出来,据说后期不容易收敛。
(7)如果样本个数不能被批量大小整除,data_iter 函数的行为会有什么变化?
epoch = 1
for X,y in data_iter(3, features, labels): # 小批量计算大概就是这样,一波一波的读
if epoch >= 332:
print(X)
epoch += 1
tensor([[-0.2145, -1.6637],
[ 1.6249, 1.2820],
[ 0.6924, 0.1186]])
tensor([[ 0.1038, -1.1218],
[-0.9398, -0.2272],
[ 0.4261, 0.1190]])
tensor([[0.5700, 0.4233]])
\(1000\div3=333\dots1\)
可以看到,最后一组由余下的组成。
标签:loss,tensor,torch,从零开始,3.2,0.000047,线性,grad,size From: https://www.cnblogs.com/AncilunKiang/p/17434361.html