首页 > 其他分享 >小灰灰深度学习day4——数据操作之张量(torch)

小灰灰深度学习day4——数据操作之张量(torch)

时间:2023-05-29 23:33:40浏览次数:47  
标签:灰灰 元素 tensor day4 torch 张量 print id

震惊了!!!在python中, y = x + y;与 y += x;竟然有区别,且看如下代码:

import torch
'''
x = torch.arange(12)
print(x)
#reshape可以改变张量的形状而不改变元素的数量和元素值
X = x.reshape(-1,3)
print(X)

#shape属性可以访问元素的张量的形状
print(X.shape)

#numel()得到张量中元素的总数
print(X.numel())

#张量元素设全0
x = torch.zeros((2, 3, 4))
print(x)

#张量内元素全为1
x = torch.ones((2, 3, 4))
print(x)

#创建形状为(3, 4),每个元素都从均值为0,标准差为1的标准高斯分布(正态分布)中随机取样
x = torch.randn(3, 4)
print(x)

#还可以直接赋值
x = torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
print(x)
x = torch.tensor([1.0, 2, 4, 8])
y = torch.tensor([2, 2, 2, 2])
#对应每个元素之间做运算
print(x + y)
print(x - y)
print(x * y)
print(x / y)
print(x ** y) #  **是求幂运算

#求指数
print(torch.exp(x))

x = torch.arange(12, dtype=torch.float32).reshape(3, 4)
y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
print(torch.cat((x, y), dim = 0)) #按照第0维度拼接 (即按照x拼接)
print(torch.cat((x, y), dim = 1)) #按照第1维度拼接 (即按照y拼接)

#利用逻辑符号构成二元张量
print(x == y)

#求一个张量内所有元素的和
print(x.sum())

#形状不同,会有广播机制,将张量复制放大(3, 1)->(3, 2),(1, 2)->(3, 2)
#维度数相同的张量才能广播。
a = torch.arange(3).reshape(3, 1)
b = torch.arange(2).reshape(1, 2)
print(a)
print(b)
print(a + b)
print(a * b)

x = torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
#输出最后一行
print(x[-1])

#修改某一个元素————索引
x[1, 2] = 9
print(x)

#修改某一些元素(这里修改1到2行)————切片
x[0:2, :] = 9
print(x)
'''
'''
#有关节省内存 先看反例
x = [2]
y = [1]
before = id(y)
y = y + x
print(id(y) == before)
#这样当数组很大时,比较浪费空间
'''
'''
#为了节省空间我们这么做
x = [2]
y = [1]
before = id(x)
x += y
print(id(x) == before)
'''
'''
x = torch.tensor([2])
y = torch.tensor([1])
z = torch.zeros_like(y)
print(id(z))
z[:] = x + y
print(id(z))
'''
'''
#numpy和torch共享底层内存,所以他们之间转化起来很容易
import numpy as np
a = np.array([1, 2]) 
b = torch.tensor(a)
print(type(a))
print(type(b))

#将大小为1的张量转换为python标量,我们可以调用item函数或python的内置函数
a = torch.tensor([3.5])
print(a)
print(a.item())
print(float(a))
print(int(a))
#深度学习存储和操作数据的主要接口是张量(n维数组)。它提供了各种功能,包括基本数学,
#运算,广播,索引,切片,内存节省,和转换为其他Python对象
'''

 

标签:灰灰,元素,tensor,day4,torch,张量,print,id
From: https://www.cnblogs.com/fighting-huihui/p/17442025.html

相关文章

  • pytorch1.4.0 CUDA11.0 python3.7安装记录
    参考过程CUDA安装教程CUDA教程2找到自己电脑显卡的cuda版本CUDA是什么版本是11.0.140安装CUDA11.1下载链接,但是我们不用这个我们用的是11.0最新版的下载地址下载选项设置(害,整整2个多G啊)。可以在下载按钮的地方右键,复制链接,然后在迅雷下面下载。虽然慢但是稳定。不过用Chrome复......
  • 小灰灰机器学习day3——多项式拟合(最高项系数为2)
    importnumpyasnpTime=np.array([1,2,4,8,16,32,64])Temp=np.array([0,1,2,3,4,5,6])importmatplotlib.pyplotaspltplt.figure()plt.plot(Time,Temp,'bo')plt.xlabel("Time")plt.ylabel("Temp")plt.title(�......
  • 【2023 · CANN训练营第一季】——在华为AI加速型ECS上安装Pytorch和Tensorflow框架
    前言:在CANN训练营提供的华为云镜像环境,通过miniconda安装pytorch和Tensorflow框架。在模型迁移前准备阶段,可以用来在CPU上对模型训练进行验证。本文描述了安装过程,更换国内conda源、并分别下载例程,在Pytorch和Tensorflow框架下进行了CPU训练。还介绍了在Pytorch、Tensorflow虚拟环......
  • Anaconda正确安装pytorch正确步骤
    前提:Anaconda安装的10个坑1没有系统环境变量(有的安装包没有系统环境变量,勾选安装,需要自己配置环境变量,否则会后面会让你重新安装)2安装pytorch前,要condaactivatemyenv//激活环境,不然安装默认路径,用不了,白安装了 第一步一劳永逸,设置镜像源pipconfigsetglobal.index-......
  • pytorch--训练分层学习率设置
    在训练模型时,我们经常会使用两个神经网络模型进行融合,若两个模型的复杂度不同,或者激活函数不同,导致训练后的模型训练损失忽高忽低,差距巨大,有可能是陷入了局部最优的状况。这时候采用分层学习率的策略可能帮助模型度过局部最优困境。下面是一个简单的示例:对于一个继承于nn.Module......
  • 小灰灰机器学习day2——构造线性回归器
    filename="Ve.txt"x=[]y=[]withopen(filename,'r')asf:forlineinf.readlines():xt,yt=[float(i)foriinline.split(',')]x.append(xt)y.append(yt)num_training=int(0.5*len(x)......
  • 使用 CNN 提取内容和风格进行风格迁移(PyTorch 实现)
    使用CNN提取内容和风格进行迁移目录使用CNN提取内容和风格进行迁移论文概述论文地址基本概念及对应用符号生成过程准备目标生成代码实现网络结构具体实现结果本文演示了使用CNN进行风格迁移(styletransfer)的深度学习PyTorch实现。完整实现代码位于https://github.com/......
  • 手把手教你在昇腾平台上搭建PyTorch训练环境
    摘要:在昇腾平台上运行PyTorch业务时,需要搭建异构计算架构CANN软件开发环境,并安装PyTorch框架,从而实现训练脚本的迁移、开发和调试。本文分享自华为云社区《手把手教你在昇腾平台上搭建PyTorch训练环境》,作者:昇腾CANN。PyTorch是业界流行的深度学习框架,用于开发深度学习训练脚本......
  • PyTorch-Forecasting一个新的时间序列预测库
    时间序列预测在金融、天气预报、销售预测和需求预测等各个领域发挥着至关重要的作用。PyTorch-forecasting是一个建立在PyTorch之上的开源Python包,专门用于简化和增强时间序列的工作。在本文中我们介绍PyTorch-Forecasting的特性和功能,并进行示例代码演示。完整文章:https://av......
  • pytorch安装
    电脑配置:window10、python3.6 cuda11.4.14X 一、CUDA安装(1)查看电脑版本 (2)下载cuda,大约2.8g。网址(CUDAToolkit11.4Update1Downloads|NVIDIADeveloper)(3)安装cuda,默认安装路径C:\Users\39211\AppData\Local\Temp\CUDA(4)检验:nvcc-V 二、pytorch安装pip3instal......