ソウルICTイノベーションプラザ-人工知能プレミアムコース(視覚知能)3日目
※ Notification
本文は著者が理解した内容に基づいて書かれているため,誤りがある可能性がある.
间违ったところがあったら、伝言を残してください.私たちは修正します.
Intro
今日、コメントが終わった後、Tensorflow講座が本格的に始まりました.
Deep Learningの基本アーキテクチャを覚えていれば、難しくはありません.
code consistency
授業の前にlambda関数に関する質問を受け入れ、コードの一貫性を簡単に説明しました.
notation
プログラミングでは、コードの一貫性を維持することが重要です.これは、同じ記号を使用することを意味します.
企業やコラボレーションでは、コードルールやガイドラインが存在し、これらのルールを遵守することが重要です.
個人的にも気になる部分だったので書いてみました.
In python
pythonを使用する場合もいくつかのルール(?)があります.あります.
list comprehension
普段はlistの理解はあまり詳しくないのですが、講義で取り上げられたので整理してみました.
したがって、
Deep learning
Deeplearningには、入力レイヤ、非表示レイヤ、出力レイヤがあります.入力レイヤ-正解を生成するデータ数(ラベルを入力するデータ数) 非表示レイヤ-Hyperパラメータ 出力レイヤ-正解(ラベルタイプ数) one hot encoding
Onehot符号化はlossを計算するために,正解を行列で表す方法である.
activation function
onehot符号化を理解する前に、DLでonehot符号化を使用する理由を理解します.
sigmoid,relu,tanhなどの活性化関数は1つの変曲点しかない.
したがって,2つのデータを分類するしかない.
では、複数の分類について、どうすればいいのでしょうか.
出力ノードを正解の個数として作成し、その最大値のindexを正解と認識すればよい.
だからYYYはマトリクスで表され、ここで問題が発生します.
One hot encoding
lossを計算するには、前述したようにYYはマトリクスであるY−TY−TY−TY Tを行う必要がある.
正確なTTTは単一値であるため、Y−TY−TY−T演算を行うために、TTTは行列として表される.
この方法がonehot符号化です.
example
コメント終了後、まずTensorflow(以下TFと略す)について簡単に紹介した.
要約すると、これは最もよく使われる枠組みなので、勉強してもいいです.
Keras
TF 2.0となった後、KerasはハイレベルAPIと評価された.
そのため、TFとKerasはセットだと思っています.
では、KerasとTFの関係は何でしょうか.
普段も気になるので探してみましたが今日はちゃんと整理されているようです
上の写真を見ると分かりやすいはずです.
一般的には、kerasによってTFが使用されます.
Outro
onehotコードで締めくくりのコメントが終わり、今は本格的に授業が始まっているようです.
彼は明日から楽しくコードを作ると言った.
授業中にコードに関する内容がたくさんあるので、後でどのくらい紹介するか分かりません.
休み時間に早めに書いておきましたが、書く時間が短くなったので良かったです.
本文は著者が理解した内容に基づいて書かれているため,誤りがある可能性がある.
间违ったところがあったら、伝言を残してください.私たちは修正します.
Intro
今日、コメントが終わった後、Tensorflow講座が本格的に始まりました.
Deep Learningの基本アーキテクチャを覚えていれば、難しくはありません.
code consistency
授業の前にlambda関数に関する質問を受け入れ、コードの一貫性を簡単に説明しました.
notation
プログラミングでは、コードの一貫性を維持することが重要です.これは、同じ記号を使用することを意味します.
# 1번 방식
if {
code
}
# 2번 방식
if
{
code
}
以上のようにif文を使用する場合、かっこは以下の2つの方法で使用できますが、一致して1つの方法で使用する必要があります.おしゃべりとして、私は1番の方法が好きです.企業やコラボレーションでは、コードルールやガイドラインが存在し、これらのルールを遵守することが重要です.
個人的にも気になる部分だったので書いてみました.
In python
pythonを使用する場合もいくつかのルール(?)があります.あります.
list comprehension
普段はlistの理解はあまり詳しくないのですが、講義で取り上げられたので整理してみました.
[(식) for (변수) in (리스트)]
examplesize = 10
arr = [i * 2 for i in range(size)]
labmdaf = lambda x = W : func(W)
numerical_derivative(f, W)
関数f
numerical_derivative(f, W)
のコードを変更しても変更されません.したがって、
Code consistency
を保持することができ、これはコードの理解と修正に役立つ.Deep learning
Deeplearningには、入力レイヤ、非表示レイヤ、出力レイヤがあります.
Onehot符号化はlossを計算するために,正解を行列で表す方法である.
activation function
onehot符号化を理解する前に、DLでonehot符号化を使用する理由を理解します.
sigmoid,relu,tanhなどの活性化関数は1つの変曲点しかない.
したがって,2つのデータを分類するしかない.
では、複数の分類について、どうすればいいのでしょうか.
出力ノードを正解の個数として作成し、その最大値のindexを正解と認識すればよい.
だからYYYはマトリクスで表され、ここで問題が発生します.
One hot encoding
lossを計算するには、前述したようにYYはマトリクスであるY−TY−TY−TY Tを行う必要がある.
正確なTTTは単一値であるため、Y−TY−TY−T演算を行うために、TTTは行列として表される.
この方法がonehot符号化です.
example
import numpy as np
import tensorflow as tf
T = np.array([0, 1, 2, 3, 4])
Y_ONEHOT = tf.keras.utils.to_categorical(T, 5)
print(Y_ONEHOT)
[[1. 0. 0. 0. 0.] # 0
[0. 1. 0. 0. 0.] # 1
[0. 0. 1. 0. 0.] # 2
[0. 0. 0. 1. 0.] # 3
[0. 0. 0. 0. 1.]] # 4
Tensorflowコメント終了後、まずTensorflow(以下TFと略す)について簡単に紹介した.
要約すると、これは最もよく使われる枠組みなので、勉強してもいいです.
Keras
TF 2.0となった後、KerasはハイレベルAPIと評価された.
そのため、TFとKerasはセットだと思っています.
では、KerasとTFの関係は何でしょうか.
普段も気になるので探してみましたが今日はちゃんと整理されているようです
上の写真を見ると分かりやすいはずです.
一般的には、kerasによってTFが使用されます.
Outro
onehotコードで締めくくりのコメントが終わり、今は本格的に授業が始まっているようです.
彼は明日から楽しくコードを作ると言った.
授業中にコードに関する内容がたくさんあるので、後でどのくらい紹介するか分かりません.
休み時間に早めに書いておきましたが、書く時間が短くなったので良かったです.
Reference
この問題について(ソウルICTイノベーションプラザ-人工知能プレミアムコース(視覚知能)3日目), 我々は、より多くの情報をここで見つけました https://velog.io/@kimsoohyun/서울ICT이노베이션스퀘어-인공지능-고급과정시각지능-3일-차テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol