2点–機械学習、深さ学習マイニング

2859 ワード

💡 人工知能の出現


...明確なプログラミングを必要とせずに、コンピュータが自主的に学ぶことができる学術活動能力。


「プログラムがデータを通じて自分で勉強したらどうなるの?」」アーサー・サミュエルのことを考えて、機械の勉強を始めました.機械学習の経験は、新しい商品がどのような種類の人工知能なのかを分類することができる.

📑 機械学習方法


学習を指導する.


正しいラベルの付いたデータを使用して学習する方法
Label:あるターゲットの特徴に基づいて回答する
ラベル:オブジェクトのフィーチャーに基づいて正解をマークする
≪タグのデータ|Tag Data|oem_src≫:タグのターゲット上のデータ
トレーニング(データ)セット==トレーニングデータ:ラベルデータのセット
トレーニングセット学習により、分類モデルを作成し、分類モデルをテストするときに新しいデータ、すなわちテストデータを使用します.テストデータにラベルがありません.訓練セットは形態によって分類と回帰分析に分けられる.

1.分類


問題と答えは人類の規定に完全に合っている.

2.回帰分析


問題と答えが正確に存在するというより,問題と答えの間に因果関係を持つ連続数値である.
学習に使用するデータセット
<回帰解析例>
1.どの写真にもラベルが貼られている
2.学習訓練集
3.テストデータでラベルを貼る
4.合っているか確認できる
ラベルを貼った3人の訓練者は、答えと答えが映っていると言った.
y = f(x)
x:原因、問題、入力
y:結果、答え、出力
f:解析関係(function)
これらの式によって形成されたグラフは解釈でき,これらのグラフによって正確な予測が可能であり,この過程が回帰解析である.

非指導学習


ラーニングでは、ラベルのないデータをクラスタ化して、新しいデータの結果を予測します.
類似属性値を持つクラスタを作成することができるため、類似度関数は重要であり、ラベルのないデータから類似属性を見つけることは、指導学習に比べて困難である.学習訓練セットにより類似度を測定してクラスタ化し,この非指導学習は指導学習において適切な特徴(feature)を探す前処理法としてもよい.
このような人工知能の学習過程は人間の知能と非常に似ていることがわかる.指導学習は私たちが教科書を通じて授業と学習を行う過程に似ており、指導学習ではなく様々な経験を通じて学習する過程に似ている.

💡 深く勉強する.


学習目的に適したフィーチャーとプロパティを自動的に抽出し、これらのフィーチャーとプロパティを使用してより高性能な学習を実行します。


ニューロンは水上突起から信号を受信して伝達し、この時ニューロンの犬は機械学習と似たような構造を持っていた.これらの構造は複雑で,深層ニューラルネットワークと呼ばれている.

🔎 深い学習の特徴


マグネトロン
これは1957年、フランクロソンブラットが創造した最初の人工ニューラルネットワークアルゴリズムを用いて、ニューロンからなるニューラルネットワーク構造の構造を数学的に模倣したことを意味する.
入力データに重みを加え,活性化関数により伝達されるか否かを判断し,出力の構造−パーセロン複合によりニューラルネットワークを形成し,これらのニューラルネットワークは入力層,隠蔽層,出力層に分かれている.

ニューラルネットワークの構造


入力レイヤ:入力ニューロン(ノード)からなる入力データを受信するレイヤ
隠しレイヤ:隠しニューロン(ノード)入力と出力の間に存在する計算レイヤ
出力層:出力ニューロン(ノード)からなる最終出力層
隠匿層が2つ以上あることから,深層ニューラルネットワークと呼ぶ.レイヤ内のノード間には、接続の強さを表す重みがあります.重みは、前のレイヤのノードの結果値をどれだけ信頼しているかを意味します.ニューラルネットワークには方向性があり,純伝搬と逆伝搬がある.
純伝播:入力-非表示-出力順序、出力値-実績=損失(error)
初期損失値が大きいため,損失を最小化する学習が必要である.
≪逆伝播|Inverse Propagation|oem_src≫:損失を最小化するために重み付けを計算して更新します.
深い学習は純粋な伝播と逆伝播を繰り返し,適切な重み値を自動的に見つけ,優れた性能を持つ人工ニューラルネットワークを生成する.

📌 レイアウト、エポック、繰り返し


学習時間とパフォーマンスを最適化するには、導入、フォークリフト、および繰り返しが必要です.

バッチ


トレーニングセットを小さな配置寸法に分割します.
配置サイズ:トレーニングセット全体を複数のグループに分割すると、1つのグループが属する
表示データ数
レイアウト形式:レイアウト寸法分割形式
<なぜ展開を使うのか>
トレーニングデータをすべてニューラルネットワークに入れると、リソースの低効率な使用を招きます.
学習時間が長いため、導入を使用して有効なリソースを使用できます.

エポック


トレーニングセット全体がニューラルネットワークを通過する回数
1−epochは、訓練セット全体がニューラルネットワークに適用され、純粋な伝播および逆伝播によって一度にニューラルネットワークを通過することを意味する.

繰り返し


1-epochの完了に必要なミニレイアウトの数を示します
ミニ構成がニューラルネットワークを通過するたびに、重み付け更新が行われます.
レイアウトサイズが大きい場合、一度に処理する量が大きいと、学習速度が遅く、メモリが不足するという問題が発生します.構成サイズが小さいと、速度は速くなりますが、重み付け更新が頻繁に発生し、トレーニングが不安定になります.したがって,3つの要素を適切につかむことが重要である.