U-stage day 6

2638 ワード

1.授業内容


[DLBasic]深い学習の基本用語の説明


  • 良い深さのプログラマーになる方法
    1)実施能力
    2)数学の背景
    3)最新論文の取得

  • 深い学習における重要な要素
    1)Data that model can learn from
    2)Model how to transform the data
    3)Loss Fn that quantifies the badness of the model
    4)Algorithm to adjust the parameters to minimize the loss


  • Historical Review
    2012 - AlexNet
    2013 - DQN
    2014 - Encoder/Decoer & Adam Optimizer
    2015 - GAN & Residual Networks
    2017 - Transformer
    2018 - BERT
    2019 - BIG Language Models(GPT-3)
    2020 - Self Supervised Learning(SimCLR)
  • [DLBasic]新しいネットワーク-MLP


  • Neural network(NN)
    1)Neural networks are computing systems vaguely inspired by the biological neural networks that constitute animal brains.
    2)Neural networks are function approximators that stack affine transformations followed by nonlinear transformations. (教授の偏愛の定義)

  • 実習
    必修科目1の内容
  • 2.課題実行過程/成果整理

  • Define MLP model
  • class MultiLayerPerceptronClass(nn.Module):
        """
            Multilayer Perceptron (MLP) Class
        """
        def __init__(self,name='mlp',xdim=784,hdim=256,ydim=10):
            super(MultiLayerPerceptronClass,self).__init__()
            self.name = name
            self.xdim = xdim
            self.hdim = hdim
            self.ydim = ydim
            self.lin_1 = nn.Linear(
            self.xdim, self.hdim
            )
            self.lin_2 = nn.Linear(
            self.hdim, self.ydim
            )
            self.init_param() # initialize parameters
            
        def init_param(self):
            nn.init.kaiming_normal_(self.lin_1.weight)
            nn.init.zeros_(self.lin_1.bias)
            nn.init.kaiming_normal_(self.lin_2.weight)
            nn.init.zeros_(self.lin_2.bias)
    
        def forward(self,x):
            net = x
            net = self.lin_1(net)
            net = F.relu(net)
            net = self.lin_2(net)
            return net
    
    M = MultiLayerPerceptronClass(name='mlp',xdim=784,hdim=256,ydim=10).to(device)
    loss = nn.CrossEntropyLoss()
    optm = optim.Adam(M.parameters(),lr=1e-3)코드를 입력하세요

    3.ピアセッション


    学習内容の共有


    1.課題コードコメント

  • 必修科目1特性上
  • スキップ

    1.授業内容と深化内容を討論する

  • 進捗X
  • 3.その他の議論


    CNNは、
  • 〜5週間に開かれる画像分類大会について、2週間にわたって主要論文を評価する.

    4.学習回顧


    ブスターキャンプに参加するまで、私はずっと一人で勉強していましたが、確かに他の人と一緒にいるときは責任感があり、方向を見つけやすいです.独自学習の過程でGitのようなコラボレーションツールはほとんど使ったことがありませんが、今週のGit特別講座でできるだけ早く使い方を身につけなければなりません.今週も頑張ります!