pytorch批量处理数据

from torch.utils.data import DataLoder

dataLoder = DataLoder(dataset, batch_size = 1, shuffle = False, sampler = None, num_workers = 0, collate_fn = default_collate, pin_memory = False, drop_last=False)
dataset -- 加载的数据集
batch_size -- 批大小
shuffle -- 是否将数据打乱
num_workers -- 使用多进程加载的进程数,0代表不使用多进程
collect_fn -- 如何将多个样本数据拼接成一个batch,一般使用默认的拼接方式
pin_memory -- 是否将数据保存在pin memory 区,pin memory中的数据转到GPU上会快一些
drop_last -- dataset中的数据个数可能不是batch_size的整数倍,drop_last 表示是否将多出来不足一个batch的样本数据丢弃

猜你喜欢

转载自blog.csdn.net/yuekangwei/article/details/110500100