[AIFFEL] 22.Jan.20 - Exploration, RNN_Sentiment_Analysis
9281 ワード
今日の学習リスト
例えば、特徴数が13の場合は
PolynomialFeatures()
を使用しても結晶系数値は類似する.PolynomialFeatures()
を用い,変数の説明力が重要であれば,簡単な第1グループのデータを用いることが望ましい. テキストの感性分析のキー
事前構築
テキスト分析は理解すればするほど奥深くなり、面白くなるようだ.
ダウンジャケット
次の文章はタイトルを作ります.
かっこを使わずにそのまま書くと
PolynomialFeatures()
エラーが発生します. # 숫자 벡터로 encode된 문장을 원래대로 decode하는 함수입니다.
def get_decoded_sentence(encoded_sentence, index_to_word):
return ' '.join(index_to_word[index] if index in index_to_word else '<UNK>' for index in encoded_sentence[1:]) #[1:]를 통해 <BOS>를 제외
print(get_decoded_sentence([1, 3, 4, 5], index_to_word))
i if i % 2 == 0 else i+10 for i in [1,2,3,4,5]
>>>SyntaxError: invalid syntax
print(i if i % 2 == 0 else i+10 for i in [1,2,3,4,5])
>>><generator object <genexpr> at 0x7f14177228d0>
シーケンスデータ
:実は音がもっと正確です
RNNはステートマシンとして設計されている
同じ時間ステップのデータ(またはデータセット?)関連する重みwと同じです.(だから
invalid syntax
です).RNNと呼ばなければなりませんか?
答えは、1-D Convolution Neural Network(1-D CNN)も使えます.
画像は2-D CNNで、文章は1次元(語には複数の要素がある)に置くことができます.
このようにして、そのベクトルを走査しながら特徴を抽出する.
また,並列処理はRNNよりも効率が高く,速度が速い.
ミニプロジェクト(NAVER映画評論、韓国語感性分析)
vocab_size = 10000
word_vector_dim = 32
model = tf.keras.Sequential()
model.add(tf.keras.layers.Embedding(vocab_size, word_vector_dim, input_shape=(None,)))
model.add(tf.keras.layers.LSTM(8?????))
x -> RNN -> y
が4、LSTMでは「8」と書いてあるので、欲しいと思って探してみましたが、以下のようなケースがありました.embedding_dim = 100
hidden_units = 128
model = Sequential()
model.add(Embedding(vocab_size, embedding_dim))
model.add(LSTM(hidden_units))
word_vector_dim
を勉強し続けると、勉強を続けます...今日の感謝
1)それでもword 2 vecにおけるword->integer->vectorの構造を少し理解しました.
Reference
この問題について([AIFFEL] 22.Jan.20 - Exploration, RNN_Sentiment_Analysis), 我々は、より多くの情報をここで見つけました https://velog.io/@moondeokjong/AIFFEL-22.Jan.20-Exploration-RNNAnalysingSentimentsfromTextsテキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol