首页 > 其他分享 >数据变换 Transforms

数据变换 Transforms

时间:2024-08-04 08:59:11浏览次数:15  
标签:变换 image dataset print shape Transforms test 数据

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。

mindspore.dataset提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别对其进行介绍。

import numpy as np
from PIL import Image
from download import download
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset
Common Transforms
mindspore.dataset.transforms模块支持一系列通用Transforms。这里我们以Compose为例,介绍其使用方式。

Compose
Compose接收一个数据增强操作序列,然后将其组合成单个数据增强操作。我们仍基于Mnist数据集呈现Transforms的应用效果。

Download data from open datasets

url = “https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/”
“notebook/datasets/MNIST_Data.zip”
path = download(url, “./”, kind=“zip”, replace=True)

train_dataset = MnistDataset(‘MNIST_Data/train’)
Downloading data from https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/notebook/datasets/MNIST_Data.zip (10.3 MB)

file_sizes: 100%|██████████████████████████| 10.8M/10.8M [00:01<00:00, 9.01MB/s]
Extracting zip file…
Successfully downloaded / unzipped to ./
image, label = next(train_dataset.create_tuple_iterator())
print(image.shape)
(28, 28, 1)
composed = transforms.Compose(
[
vision.Rescale(1.0 / 255.0, 0),
vision.Normalize(mean=(0.1307,), std=(0.3081,)),
vision.HWC2CHW()
]
)
train_dataset = train_dataset.map(composed, ‘image’)
image, label = next(train_dataset.create_tuple_iterator())
print(image.shape)
(1, 28, 28)
更多通用Transforms详见mindspore.dataset.transforms。

Vision Transforms
mindspore.dataset.vision模块提供一系列针对图像数据的Transforms。在Mnist数据处理过程中,使用了Rescale、Normalize和HWC2CHW变换。下面对其进行详述。

Rescale
Rescale变换用于调整图像像素值的大小,包括两个参数:

rescale:缩放因子。
shift:平移因子。
图像的每个像素将根据这两个参数进行调整,输出的像素值为outputi=inputi∗rescale+shift

这里我们先使用numpy随机生成一个像素值在[0, 255]的图像,将其像素值进行缩放。

random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
print(random_np)
[[170 10 218 … 81 128 96]
[ 2 107 146 … 239 178 165]
[232 137 235 … 222 109 216]

[193 140 60 … 72 133 144]
[232 175 58 … 55 110 94]
[152 241 105 … 187 45 43]]
为了更直观地呈现Transform前后的数据对比,我们使用Transforms的Eager模式进行演示。首先实例化Transform对象,然后调用对象进行数据处理。

rescale = vision.Rescale(1.0 / 255.0, 0)
rescaled_image = rescale(random_image)
print(rescaled_image)
[[0.6666667 0.03921569 0.854902 … 0.31764707 0.5019608 0.37647063]
[0.00784314 0.41960788 0.57254905 … 0.93725497 0.69803923 0.64705884]
[0.909804 0.5372549 0.9215687 … 0.8705883 0.427451 0.8470589 ]

[0.7568628 0.54901963 0.23529413 … 0.28235295 0.52156866 0.5647059 ]
[0.909804 0.6862745 0.227451 … 0.21568629 0.43137258 0.36862746]
[0.59607846 0.9450981 0.41176474 … 0.73333335 0.1764706 0.16862746]]
可以看到,使用Rescale后的每个像素值都进行了缩放。

Normalize
Normalize变换用于对输入图像的归一化,包括三个参数:

mean:图像每个通道的均值。
std:图像每个通道的标准差。
is_hwc:bool值,输入图像的格式。True为(height, width, channel),False为(channel, height, width)。
图像的每个通道将根据mean和std进行调整,计算公式为outputc=inputc−meancstdc
,其中 c
代表通道索引。

normalize = vision.Normalize(mean=(0.1307,), std=(0.3081,))
normalized_image = normalize(rescaled_image)
print(normalized_image)
[[ 1.7395868 -0.29693064 2.3505423 … 0.60677403 1.2050011
0.7976976 ]
[-0.3987565 0.9377082 1.4341093 … 2.617835 1.8414128
1.6759458 ]
[ 2.5287375 1.3195552 2.5669222 … 2.4014552 0.9631647
2.3250859 ]

[ 2.0323365 1.3577399 0.33948112 … 0.49221992 1.2686423
1.4086528 ]
[ 2.5287375 1.803228 0.31402466 … 0.27583995 0.9758929
0.77224106]
[ 1.5104787 2.6432917 0.9122518 … 1.9559668 0.14855757
0.12310111]]
HWC2CHW
HWC2CHW变换用于转换图像格式。在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。MindSpore设置HWC为默认图像格式,在有CHW格式需求时,可使用该变换进行处理。

这里我们先将前文中normalized_image处理为HWC格式,然后进行转换。可以看到转换前后的shape发生了变化。

hwc_image = np.expand_dims(normalized_image, -1)
hwc2chw = vision.HWC2CHW()
chw_image = hwc2chw(hwc_image)
print(hwc_image.shape, chw_image.shape)
(48, 48, 1) (1, 48, 48)
更多Vision Transforms详见mindspore.dataset.vision。

Text Transforms
mindspore.dataset.text模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。这里简单介绍其使用方法。

首先我们定义三段文本,作为待处理的数据,并使用GeneratorDataset进行加载。

texts = [‘Welcome to Beijing’]
test_dataset = GeneratorDataset(texts, ‘text’)
PythonTokenizer
分词(Tokenize)操作是文本数据的基础处理方法,MindSpore提供多种不同的Tokenizer。这里我们选择基础的PythonTokenizer举例,此Tokenizer允许用户自由实现分词策略。随后我们利用map操作将此分词器应用到输入的文本中,对其进行分词。

def my_tokenizer(content):
return content.split()

test_dataset = test_dataset.map(text.PythonTokenizer(my_tokenizer))
print(next(test_dataset.create_tuple_iterator()))
[Tensor(shape=[3], dtype=String, value= [‘Welcome’, ‘to’, ‘Beijing’])]
Lookup
Lookup为词表映射变换,用来将Token转换为Index。在使用Lookup前,需要构造词表,一般可以加载已有的词表,或使用Vocab生成词表。这里我们选择使用Vocab.from_dataset方法从数据集中生成词表。

vocab = text.Vocab.from_dataset(test_dataset)
获得词表后我们可以使用vocab方法查看词表。

print(vocab.vocab())
{‘to’: 2, ‘Beijing’: 0, ‘Welcome’: 1}
生成词表后,可以配合map方法进行词表映射变换,将Token转为Index。

test_dataset = test_dataset.map(text.Lookup(vocab))
print(next(test_dataset.create_tuple_iterator()))
[Tensor(shape=[3], dtype=Int32, value= [1, 2, 0])]
更多Text Transforms详见mindspore.dataset.text。

Lambda Transforms
Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。在这里,我们首先使用一个简单的Lambda函数,对输入数据乘2:

test_dataset = GeneratorDataset([1, 2, 3], ‘data’, shuffle=False)
test_dataset = test_dataset.map(lambda x: x * 2)
print(list(test_dataset.create_tuple_iterator()))
[[Tensor(shape=[], dtype=Int64, value= 2)], [Tensor(shape=[], dtype=Int64, value= 4)], [Tensor(shape=[], dtype=Int64, value= 6)]]
可以看到map传入Lambda函数后,迭代获得数据进行了乘2操作。

我们也可以定义较复杂的函数,配合Lambda函数实现复杂数据处理:

def func(x):
return x * x + 2

test_dataset = test_dataset.map(lambda x: func(x))
print(list(test_dataset.create_tuple_iterator()))
[[Tensor(shape=[], dtype=Int64, value= 6)], [Tensor(shape=[], dtype=Int64, value= 18)], [Tensor(shape=[], dtype=Int64, value= 38)]]

标签:变换,image,dataset,print,shape,Transforms,test,数据
From: https://blog.csdn.net/qq_43689451/article/details/140812212

相关文章

  • 数据结构之《二叉树》(中)
    在数据结构之《二叉树》(上)中学习了树的相关概念,还了解的树中的二叉树的顺序结构和链式结构,在本篇中我们将重点学习二叉树中的堆的相关概念与性质,同时试着实现堆中的相关方法,一起加油吧!1.实现顺序结构二叉树在实现顺序结构的二叉树中通常把堆使用顺序结构的数组来存储,因......
  • 第6天:信息打点-Web 架构篇&域名&语言&中间件&数据库&系统&源码获取
    #知识点:1、打点-Web架构-语言&中间件&数据库&系统等操作系统:有些漏洞出现的系统不一样、便于知道哪些漏洞可以在目标上攻击Windows&linux开发语言:漏洞的开发语言中间件容器IIS&Apache&Nginx&Tomcat&Weblogic&jboosASP&PHP&Java&python&JavaScript等2、打点-Web源码-......
  • 数据结构 -- 栈和队列
    数据结构--栈和队列1.栈1.1栈的概念及结构1.2栈的实现2.队列2.1队列的概念及结构2.2队列的实现3.栈和队列面试题4.概念选择题1.栈1.1栈的概念及结构栈:一种特殊的线性表,其只允许在固定的一端进行插入和删除元素操作。进行数据插入和删除操作的一端称为栈顶,另一端......
  • ModbusRTU数据返回格式(成功返回格式、错误返回格式、成功响应格式、错误响应格式)
    文章目录常见的响应示例读保持寄存器(功能码03)写单个寄存器(功能码06)写多个寄存器(功能码10)错误响应Modbus协议的返回格式取决于所使用的功能码。在ModbusRTU(通过串行通信实现的Modbus)中,响应格式通常包括以下部分:设备地址(SlaveAddress):通信中的设备地址,用来标识......
  • Prometheus Alertmanager还能这样做数据持久化和可视化看板,太提效了吧?
    引言        Prometheus是一款主流的监控工具,对于Alertmanager存在的局限性我们不言而喻,本文主要介绍如何实现Alertmanager告警数据持久化,并在grafana搭建可视化看板。 背景        PrometheusAlertmanager作为Prometheus生态系统中的核心告警管理组......
  • 如何理解先删除缓存还是先修改数据库。
        针对这个问题,其实反过来更好理解,即“先删除缓存还是先修改数据库能保证数据一致”变为“数据不一致的条件是什么”,好,现在就经过第一步转换了,接下来就解决这个问题。    数据不一致其实就是在经过缓存删除和数据库修改变化后缓存中是旧数据,数据库是新数据。更新......
  • 「字符串」实现Trie(字典树|前缀树)的功能 / 手撕数据结构(C++)
    概述在浏览器搜索栏里输入几个字,就弹出了以你的输入为开头的一系列句子。浏览器是怎么知道你接下来要输什么的?来看看字典树干了什么。字典树是一种高效记录字符串和查找字符串的数据结构。它以每个字符作为一个节点对字符串进行分割记录,节点形成树状结构,在录入或查找时只......
  • 数据包络分析法(DEA)
    1.数据包络分析法是什么?  数据包络分析法(DEA)是一种基于线性规划的效率分析方法,用于评估具有多输入和多输出的决策单元(DMUs)的相对效率。其本质是通过构建一个包络面(或称为效率前沿)来比较各个DMU的相对效率,判断哪些DMU在给定资源的使用下是有效的,哪些是无效的。 2.数据......
  • MySQL数据分析进阶(八)存储过程
    ※食用指南:文章内容为‘CodeWithMosh’SQL进阶教程系列学习笔记,笔记整理比较粗糙,主要目的自存为主,记录完整的学习过程。(图片超级多,慎看!)【中字】SQL进阶教程|史上最易懂SQL教程!10小时零基础成长SQL大师!!https://www.bilibili.com/video/BV1UE41147KC/?spm_id_from=333.1007.0.......
  • ORA-07445 opiaba()+639 ORA-00600 17147数据库宕机
    /u01/app/oracle/diag/rdbms/testaa/testaa/traceThuAug0112:43:372024ArchivedLogentry46044addedforthread1sequence23032ID0x860b01b0dest1:ThuAug0112:51:362024Exception[type:SIGSEGV,SI_KERNEL(general_protection)][ADDR:0x0][PC:0x1......