[PyTorc]PyTorchの基本的な使い方
3057 ワード
https://greeksharifa.github.io/pytorch/2018/11/10/pytorch-usage-03-How-to-Use-PyTorch/
torch.utils.data.DataLoader
学習に使用するすべてのデータを持つと、Train関数はbatchを要求するときにbatchsizeのサイズでデータを提供します.
ex)MNISTデータのインポート
transform = transforms.Compose( [transforms.Resize( (28, 28) ),
transforms.ToTensor()
]
)
data_loader = DataLoader(datasets.MNSIT('data/MNIST',
train=True,
download=True,
transform=transform )
batch_size = 64
shuffle=True
)
print(data_loader)
transform
変数でtransforms.Compose
(?)を通過変形方法を順番にメモします.torch.utils.data.DataLoader
でDataLoaderを作成します.まず
torchvision.datasets
でデータを受信することも忘れないでください![+]
len(data_loader.dataset)
=実績データ数[+]
len(data_loader)
=実データ数/batch sizeex)私が持っているデータセットのデータ数は64000枚、batch sizeが64に設定されている場合
len(data_loader)
の戻り値は?→\rightarrow→ 10,000「batchsizeのbatchdataを10000回あげる」って感じ?
作成中...
Reference
この問題について([PyTorc]PyTorchの基本的な使い方), 我々は、より多くの情報をここで見つけました https://velog.io/@olxtar/PyTorch-사용법テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol