[Bostcamp AI技術][U-stage]6週間の2日目学習記録
4769 ワード
学習内容
Image classification models
Deeper層の問題
通常、より深いネットワークはより良いパフォーマンスを示します.
しかし盲目的に積み重ねてしまうと、勉強ができなくなります.
分類アーキテクチャ(昨日に続いて)
GoogleNet
Inceptionモジュールの使用
Auxiliary classifier
ResNet
Degradedの問題を解決し,階層化をより深くするモデル
Shortcut connection(skip connection)
DenseNet
数段前の層だけでなく、以前の複数の層の情報も受信する.
channel axis軸で接続します.(resnetはskip connectionを+演算したことがある.)
SENet
EfficientNet
もう1つの設計方法:幅スケール、深さスケール、解像度スケール
低いストリームでも優れたパフォーマンス
Deformable convolution
統合。
GoogLeNet(Inception)はメモリと演算量の面で非常に効率的であるが,学習を複雑にする要因もあり,使いにくい.
VGGENETやResNetはシンプルで、性能も良く、メインとしてよく使われています.
ピアセッション
# Freeze the feature extracting convolution layers
# Use chlidren
for name, child in model_finetune.named_children():
if name in ['features']:
for child_parm in child.parameters():
child_parm.requires_grad = False
# Use modules. <class 'torch.nn.modules.*'>
for layer in model_finetune.features:
layer.requires_grad_(False)
# Use parameters. <class 'torch.nn.parameter.Parameter'>
for parm in model_finetune.features.parameters():
parm.requires_grad = False
# module requires_grad_
model_finetune.features.requires_grad_(False)
私は第2の finetune.features
を第3の形態に変えて、既存の第2の形態を使うときは requires_grad = False
の形態を使っています.間違ったことを知らせてくれたことに改めて感謝します.特別事項
に感銘を与える
選手たちから多くの質問があったので、自分が理解している部分が分かりにくいことに気づきました.メンバーに感謝します.私もこのような質問をたくさんしたいです.また、講義内容についても明確に理解しなければならない.
講義は余裕があって、CutMixの論文と資料を見ながら勉強しているので、確かに論文を見るのは難しいですが、内容が多く、説明性がよくて、とても役に立つようです.普段は論文を読むのを避けないでください.中秋節にも論文を実現することができます.
Githubの提出を始め、私もどんな製品の組み合わせがあるか楽しみにしています.私もGithubを装ってGithubだけで私を表現できる人になりたいです.
Reference
この問題について([Bostcamp AI技術][U-stage]6週間の2日目学習記録), 我々は、より多くの情報をここで見つけました https://velog.io/@bluegun/Boostcamp-AI-Tech-U-stage-6주차-Day-2-학습-기록テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol