首页 > 其他分享 >深度学习--PyTorch定义Tensor以及索引和切片

深度学习--PyTorch定义Tensor以及索引和切片

时间:2023-04-20 14:55:52浏览次数:41  
标签:00 Tensor -- torch 28 shape PyTorch 0.0000 tensor

深度学习--PyTorch定义Tensor

一、创建Tensor

1.1未初始化的方法

​ 这些方法只是开辟了空间,所附的初始值(非常大,非常小,0),后面还需要我们进行数据的存入。

  • torch.empty():返回一个没有初始化的Tensor,默认是FloatTensor类型。
#torch.empty(d1,d2,d3)函数输入的是shape 
torch.empty(2,3,5)

#tensor([[[-1.9036e-22,  6.8944e-43,  0.0000e+00,  0.0000e+00, -1.0922e-20],
#         [ 6.8944e-43, -2.8812e-24,  6.8944e-43, -5.9272e-21,  6.8944e-43],
#         [ 0.0000e+00,  0.0000e+00,  0.0000e+00,  0.0000e+00,  0.0000e+00]],
#
#        [[ 0.0000e+00,  0.0000e+00,  0.0000e+00,  0.0000e+00,  0.0000e+00],
#         [ 0.0000e+00,  0.0000e+00,  1.4013e-45,  0.0000e+00,  0.0000e+00],
#         [ 0.0000e+00,  0.0000e+00,  0.0000e+00,  0.0000e+00,  0.0000e+00]]])
  • torch.FloatTensor():返回没有初始化的FloatTensor。
#torch.FloatTensor(d1,d2,d3)
torch.FloatTensor(2,2)

#tensor([[-0.0000e+00,  4.5907e-41],
#        [-7.3327e-21,  6.8944e-43]])
  • torch.IntTensor():返回没有初始化的IntTensor。
#torch.IntTensor(d1,d2,d3)
torch.IntTensor(2,2)

#tensor([[          0,  1002524760],
#        [-1687359808,         492]], dtype=torch.int32)

1.2 随机初始化

  • 随机均匀分布:rand/rand_like,randint

    rand:[0,1)均匀分布;randint(min,max,[d1,d2,d3]) 返回[min,max)的整数均匀分布

#torch.rand(d1,d2,d3)
torch.rand(2,2)

#tensor([[0.8670, 0.6158],
#        [0.0895, 0.2391]])

#rand_like()
a=torch.rand(3,2)
torch.rand_like(a)

#tensor([[0.2846, 0.3605],
#        [0.3359, 0.2789],
#        [0.5637, 0.6276]])

#randint(min,max,[d1,d2,d3])
torch.randint(1,10,[3,3,3])

#tensor([[[3, 3, 8],
#         [2, 7, 7],
#         [6, 5, 9]],
#
#        [[7, 9, 9],
#         [6, 3, 9],
#         [1, 5, 6]],
#
#        [[5, 4, 8],
#         [7, 1, 2],
#         [3, 4, 4]]])
  • 随机正态分布 randn

    randn返回一组符合N(0,1)正态分布的随机数据

#randn(d1,d2,d3)
torch.randn(2,2)

#tensor([[ 0.3729,  0.0548],
#        [-1.9443,  1.2485]])

#normal(mean,std) 需要给出均值和方差
torch.normal(mean=torch.full([10],0.),std=torch.arange(1,0,-0.1))

#tensor([-0.8547,  0.1985,  0.1879,  0.7315, -0.3785, -0.3445,  0.7092,  0.0525, 0.2669,  0.0744])
#后面需要用reshape修正成自己想要的形状

1.3 赋值初始化

  • full:返回一个定值
#full([d1,d2,d3],num)
torch.full([2,2],6)

#tensor([[6, 6],
#        [6, 6]])

torch.full([],6)
#tensor(6)   标量

torch.full([1],6)
#tensor([6]) 向量
  • arange:返回一组阶梯,等差数列
#torch.arange(min,max,step):返回一个[min,max),步长为step的集体数组,默认为1
torch.arange(0,10)

#tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

torch.arange(0,10,2)
#tensor([0, 2, 4, 6, 8])
  • linspace/logspace:返回一组阶梯
#torch.linspace(min,max,steps):返回一个[min,max],数量为steps的数组
torch.linspace(1,10,11)

#tensor([ 1.0000,  1.9000,  2.8000,  3.7000,  4.6000,  5.5000,  6.4000,  7.3000,
#         8.2000,  9.1000, 10.0000])

#torch.logspace(a,b,steps):返回一个[10^a,10^b],数量为steps的数组
torch.logspace(0,1,10)

#tensor([ 1.0000,  1.2915,  1.6681,  2.1544,  2.7826,  3.5938,  4.6416,  5.9948,
#         7.7426, 10.0000])
  • ones/zeros/eye:返回全1全0或者对角阵 ones_like/zeros_like
#torch.ones(d1,d2)
torch.ones(2,2)

#tensor([[1., 1.],
#        [1., 1.]])

#torch.zeros(d1,d2)
torch.zeros(2,2)

#tensor([[0., 0.],
#        [0., 0.]])

#torch.eye() 只能接收一个或两个参数
torch.eye(3)

#tensor([[1., 0., 0.],
#        [0., 1., 0.],
#        [0., 0., 1.]])

torch.eye(2,3)

#tensor([[1., 0., 0.],
#        [0., 1., 0.]])

1.4 随机打散变量

  • randperm:一般用于位置操作。类似random.shuffle()。
torch.randperm(8)
#tensor([2, 6, 7, 5, 3, 4, 1, 0])

二、索引与切片

  • 简单索引方式
a=torch.rand(4,3,28,28)
a[0].shape
#torch.Size([3, 28, 28])
a[0,0,0,0]
#tensor(0.9373)
  • 批量索引方式 开始位置:结束位置 左边取的到,右边取不到 算是一种切片 [0,1,2]->[-3,-2,-1]
a[:2].shape
#torch.Size([2, 3, 28, 28])
a[1:].shape
#torch.Size([3, 3, 28, 28])
  • 隔行采样方式 开始位置:结束位置:间隔
a[:,:,0:28:2,:].shape
#torch.Size([4, 3, 14, 28])
  • 任意取样方式 a.index_select(d,[d层的数据索引])
a.index_select(0,torch.tensor([0,2])).shape
#torch.Size([2, 3, 28, 28])

a.index_select(1,torch.tensor([0,2])).shape
#torch.Size([4, 2, 28, 28])
  • ...任意维度取样
a[...].shape
#torch.Size([4, 3, 28, 28])

a[0,...].shape
#torch.Size([3, 28, 28])

a[:,2,...].shape
#torch.Size([4, 28, 28])
  • 掩码索引mask x.ge(0.5) 表示大于等于0.5的为1,小于0.5的为0
#torch.masked_select 取出掩码对应位置的值
x=torch.randn(3,4)
mask=x.ge(0.5)
torch.masked_select(x,mask)

#tensor([1.6950, 1.2207, 0.6035])
  • 具体索引 take(变量,位置) 会把变量变为一维的
x=torch.randn(3,4)
torch.take(x,torch.tensor([0,1,5]))

#tensor([-2.2092, -0.2652,  0.4848])

标签:00,Tensor,--,torch,28,shape,PyTorch,0.0000,tensor
From: https://www.cnblogs.com/ssl-study/p/17336833.html

相关文章

  • MySQL常用命令
    查询所有数据库名![image]showdatabases;(https://img2023.cnblogs.com/blog/2805463/202304/2805463-20230420144431240-201364771.png)(使用哪个数据库)use[databasename];(查询数据库下的所有表名)showtables;(查询表中数据)select*from[tablename];(查询表结构)des[tab......
  • 6 05 | 深入浅出索引(下)
    在上一篇文章中,我和你介绍了InnoDB索引的数据结构模型,今天我们再继续聊聊跟MySQL索引有关的概念。在开始这篇文章之前,我们先来看一下这个问题:在下面这个表T中,如果我执行select*fromTwherekbetween3and5,需要执行几次树的搜索操作,会扫描多少行?下面是这个表的初始化语句......
  • 四种语言刷算法之对链表进行插入排序
    力扣147. 对链表进行插入排序1、C/***Definitionforsingly-linkedlist.*structListNode{*intval;*structListNode*next;*};*/structListNode*insertionSortList(structListNode*head){structListNode*newHead=head;struc......
  • Python pth 文件写入 getshell 或权限维持
    今天看到Y4er师傅写的文章,我这里简单学习了一下:https://y4er.com/posts/python-pth-file-write-getshell/概述python的site模块支持"Site-specificconfigurationhook"的功能,这个功能点本身是用来将特定路径加入模块搜索路径。该模块在初始化期间自动导入。sys.prefix......
  • 03-Ajax传输json和XML
    title:03-Ajax传输json和XMLpublish:trueAjax传输JSONJSON的语法JSON(JavaScriptObjectNotation):是ECMAScript的子集。作用是进行数据的交换。语法更为简洁,网络传输、机器解析都更为迅速。语法规则:数据在键值对中数据由逗号分隔花括号保存对象方括号......
  • docker,给容器重新分配显卡
    docker容器已创建成功,若想修改映射GPU数量,除了重新创建一个容器外,还可以修改容器的配置文件来达到修改的目的。关闭docker服务(不关闭修改后会自动恢复)systemctlstopdocker找到你要修改容器的id,我的容器id为“9d676d24c4f8367357658f7329afa026840d7a5ed8fb9f26918922d0c004......
  • 【调试】Valgrind内存泄漏内存越界|运行时间|调用|cache命中率|多线程竞态|堆栈分析..
    目录即看即用详细简介Valgrind工具详解安装使用检测内存泄漏其他内存问题memcheck工具的常用选型其他选项附录其他类似工具实例分析:03.使用未初始化的内存04.使用野指针05.动态内存越界访问06.分配空间后没有释放07.不匹配使用delete或者free08.两次......
  • Feign传递参数
    传递单个参数1客户端@RequestMapping("/one")publicBaseRespone(@RequestParam("id")Integerid);服务端@RequestMapping("/one")publicBaseRespone(@RequestParam("id")Integerid){returnnewBaseRe......
  • 29 编辑手记 | 我被老乔洗脑了
    你好,我是王一鹏,《乔新亮的CTO成长复盘》的专栏编辑,也是一名被老乔洗了脑的编辑。为啥这么说呢?我先给你举几个例子吧。两个月前,我出差至上海,参与落地一场线下会议。飞机还未起飞,我就同几个多年不见的大学同学约好了晚饭,誓要尝尝阿拉大上海的本帮菜。起初,一切都很顺利。飞机如......
  • 弱口令密码破解
    Tomcat弱口令漏洞环境//下载tomcat镜像dockerpullbetsy0/tomcat//启动容器dockerrun-itd--privileged-p8082:8080--nametomcat-pass-shellbetsy0/tomcat/usr/sbin/initTomcat发现//浏览器访问tomcat网址http://192.168.220.128:8082///点击右侧“MangerApp......