[PyTorc]PyTorchの基本的な使い方



https://greeksharifa.github.io/pytorch/2018/11/10/pytorch-usage-03-How-to-Use-PyTorch/

torch.utils.data.DataLoader


学習に使用するすべてのデータを持つと、Train関数はbatchを要求するときにbatchsizeのサイズでデータを提供します.
ex)MNISTデータのインポート

transform = transforms.Compose( [transforms.Resize( (28, 28) ),
								 transforms.ToTensor()
                                ]
                              )
                              
data_loader = DataLoader(datasets.MNSIT('data/MNIST',
                         				train=True,
                                        download=True,
                                        transform=transform )
                                        
                         batch_size = 64
                         shuffle=True
                         )
                         
print(data_loader)
transform変数でtransforms.Compose(?)を通過変形方法を順番にメモします.torch.utils.data.DataLoaderでDataLoaderを作成します.
まずtorchvision.datasetsでデータを受信することも忘れないでください!
[+]len(data_loader.dataset)=実績データ数
[+]len(data_loader)=実データ数/batch size
ex)私が持っているデータセットのデータ数は64000枚、batch sizeが64に設定されている場合len(data_loader)の戻り値は?→\rightarrow→ 10,000
「batchsizeのbatchdataを10000回あげる」って感じ?
作成中...