深い学習の基礎
5956 ワード
📌 補習学習とは何ですか。
サンプルに対応する予測値(ターゲット)の正解を提供する方法
例このドキュメントのターゲットはカテゴリラベルです
目的:所与のデータセットから損失関数を最小化するパラメータ値を選択する.👉 傾斜降下法の使用
<操作手順>
1.パラメトリックモデルにサンプルを入れて予測する.
2.予測値と目標は損失関数を通過し、損失に基づいてパラメータを更新する.
パラメータを繰り返し更新するプロセスを反転します.
予測値と目標値を使用して損失関数を計算するプロセス.
パラメータの更新を失うプロセスを逆計算と呼びます.
📌 02.では、傾斜降下法は何でしょうか。
📌 03.一-熱コード
from sklearn.feature_extraction.text import CountVectorizer
import seaborn as sns
corpus = ['Time flies like an arrow.',
'Fruit flies like a banana.']
one_hot_vectorizer = CountVectorizer(binary=True)
one_hot = one_hot_vectorizer.fit_transform(corpus).toarray()
vocab = one_hot_vectorizer.get_feature_names()
sns.heatmap(one_hot, annot=True,
cbar=False, xticklabels=vocab,
yticklabels=['Sentence 1', 'Sentence 2'])
👉 文または単語の該当する要素を1とし、該当しない要素を0として表す(CountVectorierクラスはアルファベットからなる単語を無視するため、a単語はホットマップに表示されない).
📌 04.TFとTF-IDF
IDF表現(Inverse-Document-Frenquence:逆ドキュメント頻度)
TF-IDF表示
from sklearn.feature_extraction.text import TfidfVectorizer
import seaborn as sns
corpus = ['Time flies like an arrow.',
'Fruit flies like a banana.']
tfidf_vectorizer = TfidfVectorizer()
tfidf = tfidf_vectorizer.fit_transform(corpus).toarray()
sns.heatmap(tfidf, annot=True, cbar=False, xticklabels=vocab,
yticklabels = ['Sentence 1', 'Sentence 2'])
🤔 なぜこのような数字が出てくるのでしょうか.
->heatmapのSentence 1でfaileとlikeの値が0.3552の四捨五入値が0.36
Reference
この問題について(深い学習の基礎), 我々は、より多くの情報をここで見つけました https://velog.io/@saiy17/파이토치의-기본テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol