2. Image Classification
3965 ワード
Image Classification?
どこにどんなイメージがありますか.認識/認識/認識/区分
コンピュータは画像をテンソル形式(3 D)と見なしているからです.
ターゲット:画像を入れるときに何がわかるか
デフォルトの使用方法
MLㅤㅤデータ-Approachデータの駆動を主とする
# 학습
def train(image, labels): #(데이터 이미지, 정답)
return model
#예측
def predict(model, test_images): #(위에서 받은 모델, 새로운애)
return test_labels #예상 답 도출
/Nearest Neighbor Classifier
제일 비효율ㅋ.. predict예측이 느리다. 감잡기 위해서만 이해하자
사례: 추천시스템, 페이스북search
train() O(1)모든 (image, labels) 다 메모함 -> model==train data 만들고
predict() O(N)test_images가 들어오면, train data에서 가장 비슷한 애 선택. Distance 가장 작은 애
つまり、勉強が速く、予測が遅いということです.KNN : K-Nearest Neighbor
KNN
自分に近いK個のポイントを比較
K=通常奇数#スーパーパラメータ
Distanceメトリックもいろいろあります(Manhattan,Euclidean...)#hyperparameters
hyperparameters
決定要因ex)KNNにおけるK,Distanceメトリックparameters
学習可能要素.モデルで学習する要素.ex)Linear ClassifierのW,b
Overfittingに最適
トレーニングデータセットのノイズにより学習が困難になる.
ノイズを含むデータを学習します.
——Kが大きいほど遅い…
bias
私たちが勉強した結果はどんな偏向性がありますか.variance
はどれだけ散布しましたかHyperParametersをセットアップ!
K낮으면 train은 잘되지만, predict 불확실할수도 있음
사용하는 구조(이미지,텍스트etc)에 따라 결정해야 할수도 있음
여기서 training set은 (images, labels) > 학습함
test set은 (image)만 딱 있는거 > 얘의 label이 뭔지 예측
一番いい方法は?3つのデータに分かれます!3つのtrainで勉強し、
validationセットに戻り、パフォーマンスの良いスーパーパラメータを設定すると、
最後にtest setの検査結果、ある程度の性能であることがわかりました.
Cross-Validation:複数のfoldに分割
あまり使わない…!Butはよく洗いました.
/
Linear Classifier
Data Driven Approachにもっと追加して、Parametric Approachです!(KNNより速い)
우리가 가지고 있는 데이터셋의 특징을 잘 학습할수있는 parameter를 두어서 사용
Neural Network(ex.AlexNet, ResNet)도 여러개의 Linear classifiers를 쌓아놓은것임!
- CNN,RNN..etc의 구조도 기본적으로 Wx+b 연산을 계속하는 것임
Wx+b 선을 그었을때, "이건 비행기다" 선의 위에 있으면 비행기O / 아래있으면 비행기X
f(x, W) = Wx (+b)
x:入力,W:パラメータ/weights
b:bias多様性サイクルを作成するため(グラフィックを描くと原点を通過しない)(通常はWに貼り付けて計算するだけ)
==
私が持っているデータを最も特徴的に表現する必要があります.
高い場合はハイライト、低い場合は低く
難点
赤と青の分割が困難な部分
后でこれらがどのように解决するのなことを见ます!
=>また、Wパラメータが良好かどうかを見て、どのようにWを確定/更新します!>>loss func
Reference
この問題について(2. Image Classification), 我々は、より多くの情報をここで見つけました https://velog.io/@hyeminshin99/2.-Image-Classificationテキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol