首页 > 其他分享 >5-1Dataset和DataLoader

5-1Dataset和DataLoader

时间:2024-03-11 23:33:05浏览次数:29  
标签:__ torch self 1Dataset batch ds DataLoader

Pytorch通常使用Dataset和DataLoader这两个工具类来构建数据管道。

Dataset定义了数据集的内容,它相当于一个类似列表的数据结构,具有确定的长度,能够用索引获取数据集中的元素。

而DataLoader定义了按batch加载数据集的方法,它是一个实现了__iter__方法的可迭代对象,每次迭代输出一个batch的数据。

DataLoader能控制batch的大小,batch中元素的采样方法,以及将batch结果整理成模型所需输入的方法,并且能够使用多进程读取数据。

在绝大部分情况下,用户只需实现Dataset的__len__方法和__getitem__方法,就可以轻松构建自己的数据集,并用默认数据管道进行加载。

import torch
import torchvision

print("torch.__version__="+torch.__version__) 
print("torchvision.__version__="+torchvision.__version__) 
"""
torch.__version__=2.1.1+cu118
torchvision.__version__=0.16.1+cu118
"""

1.深入理解Dataset和DataLoader原理

1,获取一个batch数据的步骤

让我们考虑一下从一个数据集中获取一个batch的数据需要哪些步骤。

(假定数据集的特征和标签分别表示为张量XY,数据集可以表示为(X,Y), 假定batch大小为m)

1,首先我们要确定数据集的长度n

结果类似:n = 1000

2,然后我们从0n-1的范围中抽样出m个数(batch大小)。

假定m=4, 拿到的结果是一个列表,类似:indices = [1,4,8,9]

3,接着我们从数据集中去取这m个数对应下标的元素。

拿到的结果是一个元组列表,类似:samples = [(X[1],Y[1]),(X[4],Y[4]),(X[8],Y[8]),(X[9],Y[9])]

4,最后我们将结果整理成两个张量作为输出。

拿到的结果是两个张量,类似batch = (features,labels)

其中 features = torch.stack([X[1],X[4],X[8],X[9]])

labels = torch.stack([Y[1],Y[4],Y[8],Y[9]])

2,Dataset和DataLoader的功能分工

上述第1个步骤确定数据集的长度是由 Dataset的__len__ 方法实现的。

第2个步骤从0n-1的范围中抽样出m个数的方法是由 DataLoader的 samplerbatch_sampler参数指定的。

sampler参数指定单个元素抽样方法,一般无需用户设置,程序默认在DataLoader的参数shuffle=True时采用随机抽样,shuffle=False时采用顺序抽样。

batch_sampler参数将多个抽样的元素整理成一个列表,一般无需用户设置,默认方法在DataLoader的参数drop_last=True时会丢弃数据集最后一个长度不能被batch大小整除的批次,在drop_last=False时保留最后一个批次。

第3个步骤的核心逻辑根据下标取数据集中的元素 是由 Dataset的 __getitem__方法实现的。

第4个步骤的逻辑由DataLoader的参数collate_fn指定。一般情况下也无需用户设置。

# Dataset和DataLoader的一般使用方式如下:
import torch
from torch.utils.data import TensorDataset, Dataset, DataLoader
from torch.utils.data import RandomSampler, BatchSampler

ds = TensorDataset(torch.randn((1000, 3)), torch.randint(low=0, high=2, size=(1000,)).float())
dl = DataLoader(ds, batch_size=4, drop_last=False)
features, labels = next(iter(dl))

print('features=', features)
print('labels=', labels)
"""
features= tensor([[ 1.1621,  1.0695,  0.6769],
        [ 0.6689,  0.7189, -0.2565],
        [-1.5956, -1.0218, -0.2524],
        [-0.4431, -1.2868, -0.2185]])
labels= tensor([1., 0., 0., 0.])
"""

# 将DataLoader内部调用方式步骤拆解如下:
# step1:确定数据长度(Dataset的__len__方法实现)
ds = TensorDataset(torch.randn(1000, 3), torch.randint(low=0, high=2, size=(1000,)).float())
print('n=', len(ds))  # len(ds)等价于ds.__len__()

# step2:确定抽样indices(DataLoader中的Sampler和BatchSampler实现)
sampler = RandomSampler(data_source=ds)
batch_sampler = BatchSampler(sampler=sampler, batch_size=4, drop_last=False)

for idxs in batch_sampler:
    indices = idxs
    break
print('indices=', indices)

# step3:取出一批样本batch(Dataset的__getitem__方法实现)
batch = [ds[i] for i in indices]  # ds[i]等价于ds.__getitem__(i)
print('batch=', batch)

# step4:整理成features和labels(DataLoader的collate_fn方法实现)
def collate_fn(batch):
    features = torch.stack([sample[0] for sample in batch])
    lables = torch.stack([sample[1] for sample in batch])
    return features, labels

features, labels = collate_fn(batch)
print("features = ",features)
print("labels = ",labels)
"""
n= 1000
indices= [882, 71, 119, 654]
batch= [(tensor([ 0.7909, -0.8917, -0.3178]), tensor(1.)), (tensor([-0.0053, -0.5197,  0.0506]), tensor(0.)), (tensor([-0.5743,  0.2178,  0.4605]), tensor(1.)), (tensor([ 1.0380, -0.5583, -0.0827]), tensor(0.))]
features =  tensor([[ 0.7909, -0.8917, -0.3178],
        [-0.0053, -0.5197,  0.0506],
        [-0.5743,  0.2178,  0.4605],
        [ 1.0380, -0.5583, -0.0827]])
labels =  tensor([1., 0., 0., 0.])
"""

3,Dataset和DataLoader的核心源码

以下是 Dataset和 DataLoader的核心源码,省略了为了提升性能而引入的诸如多进程读取数据相关的代码。

import torch

class Dataset(object):
    def __init__(self):
        pass

    def __len(self):
        raise NotImplementedError

    def __getitem__(self, index):
        raise NotImplementedError

class DataLoader(object):
    def __init__(self, dataset, batch_size, collate_fn=None, shuffle=True, drop_last=False):
        self.dataset = dataset
        self.collate_fn = collate_fn
        self.sampler = torch.utils.data.RandomSampler if shuffle else torch.utils.data.SequentialSampler
        self.batch_sampler = torch.utils.data.BatchSampler
        self.sample_iter = self.batch_sampler(self.sampler(self.dataset), batch_size=batch_size, drop_last=drop_last)
        self.collate_fn=collate_fn if collate_fn is not None else torch.utils.data._utils.collate.default_collate

    def __next__(self):
        indices = next(iter(self.sample_iter))
        batch = self.collate_fn([self.dataset[i] for i in indices])
        return batch

    def __iter__(self):
        return self
    
# 测试
class ToyDataset(Dataset):
    def __init__(self, X, Y):
        self.X = X
        self.Y = Y

    def __len__(self):
        return len(self.X)

    def __getitem__(self, index):
        return self.X[index], self.Y[index]

X, Y = torch.randn(1000, 3), torch.randint(low=0, high=2, size=(1000,)).float()
ds = ToyDataset(X, Y)

dl = DataLoader(ds, batch_size=4, drop_last=False)
features, labels = next(iter(dl))

print("features = ",features )
print("labels = ",labels )  
"""
features =  tensor([[-0.2010,  0.6048, -1.8793],
        [-0.4977, -0.1304,  0.7323],
        [-0.1694,  0.8007, -0.5882],
        [ 0.3700,  0.8680,  0.1777]])
labels =  tensor([0., 1., 0., 0.])
"""

2.使用Dataset创建数据集

Dataset创建数据集常用的方法有:

  • 使用torch.utils.data.TensorDataset根据Tensor创建数据集(numpy的array, Pandas的DataFrame需要先转换成Tensor)
  • 使用torchvision.datasets.ImageFolder根据图片目录创建图片数据集
  • 继承torch.utils.data.Dataset创建自定义数据集

此外,还可以通过:

  • torch.utils.data.random_split将一个数据集分割成多份,常用于分割训练集,验证集和测试集
  • 调用Dataset的加法运算符(+)将多个数据集合并成一个数据集
  • 1,根据Tensor创建数据集
import numpy as np
import torch
from torch.utils.data import TensorDataset, Dataset, DataLoader, random_split

# 根据Tensor创建数据集
from sklearn import datasets

iris = datasets.load_iris()
ds_iris = TensorDataset(torch.tensor(iris.data), torch.tensor(iris.target))

# 分割成训练集和预测集
n_train = int(len(ds_iris) * 0.8)
n_val = len(ds_iris) - n_train
ds_train, ds_val = random_split(ds_iris, [n_train, n_val])

print(type(ds_iris))
print(type(ds_train))
"""
<class 'torch.utils.data.dataset.TensorDataset'>
<class 'torch.utils.data.dataset.Subset'>
"""

# 使用DataLoader加载数据集
dl_train, dl_val = DataLoader(ds_train, batch_size=8), DataLoader(ds_val, batch_size=8)

for features, labels in dl_train:
    print(features, labels)
    break
"""
tensor([[5.6000, 3.0000, 4.5000, 1.5000],
        [5.1000, 3.5000, 1.4000, 0.2000],
        [5.0000, 2.3000, 3.3000, 1.0000],
        [6.3000, 3.3000, 6.0000, 2.5000],
        [5.8000, 4.0000, 1.2000, 0.2000],
        [4.9000, 3.0000, 1.4000, 0.2000],
        [5.1000, 3.4000, 1.5000, 0.2000],
        [7.2000, 3.2000, 6.0000, 1.8000]], dtype=torch.float64) tensor([1, 0, 1, 2, 0, 0, 0, 2], dtype=torch.int32)
"""

# 演示加法运算符的合并作用
ds_data = ds_train + ds_val

print('len(ds_train) = ',len(ds_train))
print('len(ds_valid) = ',len(ds_val))
print('len(ds_train+ds_valid) = ',len(ds_data))

print(type(ds_data))
"""
len(ds_train) =  120
len(ds_valid) =  30
len(ds_train+ds_valid) =  150
<class 'torch.utils.data.dataset.ConcatDataset'>
"""
  • 2,根据图片目录创建图片数据集
import numpy as np
import torch
from torch.utils.data import DataLoader
from torchvision import transforms, datasets

# 一些常用的图片增强操作
from PIL import Image

img = Image.open('./data/cat.jpeg')
img

# 随机数值翻转
transforms.RandomVerticalFlip()(img)

# 随机旋转
transforms.RandomRotation(45)(img)

# 定义图片增强操作
transform_train = transforms.Compose([
    transforms.RandomHorizontalFlip(), #随机水平翻转
    transforms.RandomVerticalFlip(), #随机垂直翻转
    transforms.RandomRotation(45),  #随机在45度角度内旋转
    transforms.ToTensor()  # 转换成张量
])

transform_valid = transforms.Compose([
    transforms.ToTensor()
])

# 根据图片目录创建数据集
def transform_label(x):
    return torch.tensor([x]).float()

ds_train = datasets.ImageFolder("./dataset/cifar2/train/", transform=transform_train, target_transform=transform_label)
ds_val = datasets.ImageFolder('./dataset/cifar2/test/', transform=transform_valid, target_transform=transform_label)

print(ds_train.class_to_idx)

# 使用DataLoader加载数据集
dl_train = DataLoader(ds_train, batch_size=50, shuffle=True)
dl_val = DataLoader(ds_val, batch_size=50, shuffle=True)

for features, labels in dl_train:
    print(features.shape)
    print(labels.shape)
    break
"""
{'0_airplane': 0, '1_automobile': 1}
torch.Size([50, 3, 32, 32])
torch.Size([50, 1])
"""
  • 3,创建自定义数据集

下面我们通过另外一种方式,即继承 torch.utils.data.Dataset 创建自定义数据集的方式来对 cifar2构建 数据管道。

from pathlib import Path
from PIL import Image

class Cifar2Dataset(Dataset):
    def __init__(self, imgs_dir, img_transform):
        self.files = list(Path(imgs_dir).rglob('*.jpg'))
        self.transform = img_transform

    def __len__(self):
        return len(self.files)

    def __getitem__(self, i):
        file_i = str(self.files[i])
        img = Image.open(file_i)
        tensor = self.transform(img)
        label = torch.tensor([1.0]) if '1_automobile' in file_i else torch.tensor([0.0])
        return tensor, label

train_dir = './dataset/cifar2/train/'
test_dir = './dataset/cifar2/test/'

# 定义图片增强
transform_train = transforms.Compose([
   transforms.RandomHorizontalFlip(), #随机水平翻转
   transforms.RandomVerticalFlip(), #随机垂直翻转
   transforms.RandomRotation(45),  #随机在45度角度内旋转
   transforms.ToTensor() #转换成张量
  ]
) 

transform_val = transforms.Compose([
    transforms.ToTensor()
  ]
)

ds_train = Cifar2Dataset(train_dir, transform_train)
ds_val = Cifar2Dataset(test_dir, transform_val)

dl_train = DataLoader(ds_train, batch_size=50, shuffle=True)
dl_val = DataLoader(ds_val,batch_size = 50,shuffle = True)


for features, labels in dl_train:
    print(features.shape)
    print(labels.shape)
    break
"""
torch.Size([50, 3, 32, 32])
torch.Size([50, 1])
"""

3.使用DataLoader加载数据集

DataLoader能够控制batch的大小,batch中元素的采样方法,以及将batch结果整理成模型所需输入形式的方法,并且能够使用多进程读取数据。

DataLoader的函数签名如下:

DataLoader(
    dataset,
    batch_size=1,
    shuffle=False,
    sampler=None,
    batch_sampler=None,
    num_workers=0,
    collate_fn=None,
    pin_memory=False,
    drop_last=False,
    timeout=0,
    worker_init_fn=None,
    multiprocessing_context=None,
)

一般情况下,我们仅仅会配置 dataset, batch_size, shuffle, num_workers,pin_memory, drop_last这六个参数,

有时候对于一些复杂结构的数据集,还需要自定义collate_fn函数,其他参数一般使用默认值即可。

DataLoader除了可以加载我们前面讲的 torch.utils.data.Dataset 外,还能够加载另外一种数据集 torch.utils.data.IterableDataset。

和Dataset数据集相当于一种列表结构不同,IterableDataset相当于一种迭代器结构。 它更加复杂,一般较少使用。

  • dataset : 数据集
  • batch_size: 批次大小
  • shuffle: 是否乱序
  • sampler: 样本采样函数,一般无需设置。
  • batch_sampler: 批次采样函数,一般无需设置。
  • num_workers: 使用多进程读取数据,设置的进程数。
  • collate_fn: 整理一个批次数据的函数。
  • pin_memory: 是否设置为锁业内存。默认为False,锁业内存不会使用虚拟内存(硬盘),从锁业内存拷贝到GPU上速度会更快。
  • drop_last: 是否丢弃最后一个样本数量不足batch_size批次数据。
  • timeout: 加载一个数据批次的最长等待时间,一般无需设置。
  • worker_init_fn: 每个worker中dataset的初始化函数,常用于 IterableDataset。一般不使用。
# 构建输入数据管道
ds = TensorDataset(torch.arange(1, 50))
dl = DataLoader(ds, batch_size=10, shuffle=True, num_workers=2, drop_last=True)

# 迭代数据
for batch in dl:
    print(batch)
"""
[tensor([39,  8, 28, 33, 19, 21, 20, 49, 15, 26])]
[tensor([45, 36, 34, 32,  7, 37, 25, 16, 22, 11])]
[tensor([24, 42, 40, 23,  2,  5, 47, 35, 48, 38])]
[tensor([18, 46, 13, 43, 44,  9,  3, 41,  6, 29])]
"""

标签:__,torch,self,1Dataset,batch,ds,DataLoader
From: https://www.cnblogs.com/lotuslaw/p/18067368

相关文章

  • 自定义 DataLoader 时应使用 Unix 系统
    自定义Dataset类PyTorch允许自定义Dataset类,并由此获得DataLoader,能方便训练时获得batch:fromtorch.utils.dataimportDataLoader,Datasetimporth5pyimportosclassRadarDataset(Dataset):def__init__(self,directory):...def__len__(s......
  • absinthe dataloader 简单说明
    dataloader核心是为了解决graphql对于后段服务的频繁调用,absinthe基于graphql的dataloader实现了elixir版本的参考使用代码source=Dataloader.Ecto.new(MyApp.Repo)#setuptheloaderloader=Dataloader.new|>Dataloader.add_source(:db,source)#loadsomethi......
  • MegEngine 优化 dataloader 使用体验!data monitor 帮助更好定位性能瓶颈
    业务模型训练中Data部分可能是瓶颈所在在训练业务模型过程中,如果我们发现模型的训练速度不符合预期,往往会下意识地认为网络本身出了问题。但实际上,大多数时候问题发生在模型的数据供给逻辑中。区分一个训练过程的瓶颈到底是在准备数据,还是在网络的计算阶段其实是很简单的。比......
  • 音频数据的自定义DataLoader及其AutoEncoder降噪算法
    DataLoader要求每一个Batch里面的数据的shape都一样,但是语音数据显然不可能都是等长的,因为每一条语音长度都不一样,因此在定制DataLoader的时候还要对每一个batch的数据进行剪裁(crop)或者填充(padding)处理。这里采用padding来对齐数据,方法采用PytorchDiscussion的网友Felix......
  • Lnton羚通视频算法算力云平台【PyTorch】教程:学习Datasets-DataLoader基础知识
    Dataset&DataLoaderPyTorch提供了两个数据处理的基本方法:torch.utils.data.DataLoadertorch.utils.data.Dataset允许使用预加载的数据集以及自己的数据。Dataset存储样本及其对应的标签,DataLoader在Dataset基础上封装了一个可迭代的对象,以方便访问样本。PyTorch提供了......
  • 实践教程|源码级理解Pytorch中的Dataset和DataLoader
    前言 本文30分钟带你达到对Pytorch中的Dataset和DataLoader的源码级理解,并提供构建数据管道的3种常用方式的范例,扫除你构建数据管道的一切障碍。本文转载自算法美食屋作者|梁云1991仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最......
  • RuntimeError: DataLoader worker (pid 7978) is killed by signal: Aborted.
    报错信息显示pytorch的DataLoader无法正确加载。造成这个报错的原因不尽相同,但是猜测,大体上都是程序不知为何无法开启新的线程,导致线程被系统终止。当线程数设为0时正常(num_worker=0)对于我来说,发现问题出现在使用vscode调试pytorch训练代码。如果是命令行运行则没问......
  • pytorch-Dataset-Dataloader
    pytorch-Dataset-Dataloader目录pytorch-Dataset-Dataloaderdata.Datasetdata.DataLoader总结参考资料pyTorch为我们提供的两个Dataset和DataLoader类分别负责可被Pytorh使用的数据集的创建以及向训练传递数据的任务。data.Datasettorch.utils.data.Dataset是一个表示数据集......
  • CGCN Dataloader
    fromstellargraph.datasetsimportDatasetLoaderclassant_1_4(DatasetLoader,name="ant-1.4",directory_name="ant-1.4",url="",url_archive_format="",expected_files=[],description=&qu......
  • CORA Dataloader 分析
    from.dataset_loaderimportDatasetLoaderclassCora(DatasetLoader,name="Cora",directory_name="cora",url="https://linqs-data.soe.ucsc.edu/public/lbc/cora.tgz",url_archive_format="gztar",......