有时我们在处理数据时,需要对指定的tensor按照指定维度
进行拼接,对于这个需求,pytorch中提供了两个函数供我们使用,一个是torch.cat()
,另外一个是torch.stack()
,这两者都可以拼接tensor,但是这二者又有一些区别。
二者相同点
就是都可以实现拼接tensor,不同之处
就是是否是在新的维度
上进行拼接(是否产生新的维度)。
一、torch.cat()
该方法可以将任意个tensor按照指定维度进行拼接,需要传入两个参数,一个参数是需要拼接的tensor,需要以列表的形式进行传入,第二个参数就是需要拼接的维度。
a = torch.randn(3, 4)
b = torch.randn(3, 4)
c = torch.cat([a, b], dim=0)
print(c)
print(c.shape)
tensor([[ 0.1040, -0.3168, -1.3974, -1.2703],
[ 0.4375, 1.4254, 0.2875, -0.2420],
[-0.9663, -1.8022, -1.2352, 0.7283],
[-0.4226, 0.0375, -0.3861, 1.3939],
[ 1.6275, -0.1319, -0.7143, 0.3624],
[ 0.2245, -1.7482, -0.7933, -0.1008]])
torch.Size([6, 4])
该例子中我们定义了两个tensor,维度分别都是【3,4】,我们使用cat进行拼接,传入的维度是0,那么我们得到的结果就是会将两个tensor按照第一个维度进行拼接,可以理解为按行堆叠,把每一行想成一个样本,那么我们拼接后就会得到6个样本,维度变成【6,4】。
二、torch.stack()
第二种方法就是torch.stack()了,该方法也可以进行拼接,但是与cat有一些不同。
对于传入的参数列表和torch.cat是一样的,但是stack指定的dim是一个新的维度,最终是在这个新的维度上进行拼接。
a = torch.randn(3, 4)
b = torch.randn(3, 4)
c = torch.stack([a, b], dim=0)
print(c)
print(c.shape)
tensor([[[ 0.1040, -0.3168, -1.3974, -1.2703],
[ 0.4375, 1.4254, 0.2875, -0.2420],
[-0.9663, -1.8022, -1.2352, 0.7283]],
[[-0.4226, 0.0375, -0.3861, 1.3939],
[ 1.6275, -0.1319, -0.7143, 0.3624],
[ 0.2245, -1.7482, -0.7933, -0.1008]]])
torch.Size([2, 3, 4])
上面我们指定拼接的dim为0,那么我们会新产生一个维度,得到结果【2,3,4】,原来两个tensor的维度不变,新生成一个维度2,代表拼接后维度。
c = torch.stack([a, b], dim=1)
print(c)
print(c.shape)
tensor([[[ 0.1040, -0.3168, -1.3974, -1.2703],
[-0.4226, 0.0375, -0.3861, 1.3939]],
[[ 0.4375, 1.4254, 0.2875, -0.2420],
[ 1.6275, -0.1319, -0.7143, 0.3624]],
[[-0.9663, -1.8022, -1.2352, 0.7283],
[ 0.2245, -1.7482, -0.7933, -0.1008]]])
torch.Size([3, 2, 4])
如果我们设置为1,那么就会新产生1一个维度在第二位,得到结果【3,2,4】。