合奏する
合奏する
組合せ技術は、より良い性能を得るために複数の分類モデルを組み合わせた方法である.
ジョギング
ガイドバー(bootstarp)と集約(aggregating)の語源から、複数の分類モデルを作成し、それらを異なる学習データとして学習し、投票によって最高の予測値で最終的な結論を下す組合せ方法.
ガイドバー(bootstarp)と集約(aggregating)の語源から、複数の分類モデルを作成し、それらを異なる学習データとして学習し、投票によって最高の予測値で最終的な結論を下す組合せ方法.
ガイドテープ
ガイドバーは、データを小さな偏差サンプリングする方法です.一般に、決定ツリーなどの拡大しやすいモデルを組み合わせる場合に使用されます.
ガイドバーは,与えられた資料において単純ランダム復元抽出法を用いて,同じ大きさの複数の標本を生成するサンプリング法である.ガイドバーによって100個のサンプルが抽出されても、サンプル全体の約36.8%を占めるサンプル中で選択されたことのない元のデータが生成される可能性がある.
連絡
図形描画ゲートは、複数の分類モデルの予測値を組み合わせて結論を出すプロセスです.
ソース-https://injo.tistory.com/22
ランダム森林
ランダムツリーは,複数の決定ツリーを記録することによって予測を実行するモデルである.
決定ツリーは最適フィーチャー分岐ツリーを使用し、ランダムツリーは各ノード上の所与のデータをサンプリングすることによって、特定のデータを除外した場合に最適フィーチャーと分岐ツリーを見つけます.
このプロセスは、モデルのオフセットを増加させることによって、過剰なマッチングのリスクを低減します.
開始
タグは、異なるアルゴリズムに基づく複数の分類器の並列学習であり、ブートは、同じアルゴリズムの分類器を順次学習することによって複数の分類器を作成し、テスト時に重み付け投票によって予測値を決定する.
逐次漸進的な学習
最初の意思決定ツリーを学習した後、テスト結果の分類が不十分な場合は、男子学生の学習データを追加した後、2番目の意思決定ツリーを学習してください.これは,3番目のモデルを学習する際に,結果に基づいて学習データを増強し,順次組み合わせる方法である.
重み付け投票
一票の価値の異なる投票.
多数決ではなく、各分類の精度を加算して計算する方式です.#하드보팅
voting_clf = VotingClassifier(estimators=[
('decision_tree', dtree), ('knn', knn), ('svm', svm)],
weights=[1,1,1], voting='hard').fit(X_train, y_train)
hard_voting_predicted = voting_clf.predict(X_test)
accuracy_score(y_test, hard_voting_predicted)
#소프트보팅
voting_clf = VotingClassifier(estimators=[
('decision_tree', dtree), ('knn', knn), ('svm', svm)],
weights=[1,1,1], voting='soft').fit(X_train, y_train)
soft_voting_predicted = voting_clf.predict(X_test)
accuracy_score(y_test, soft_voting_predicted)
出典:私の最初の機械学習/深さ学習-許民錫、データ分析専門家ガイド
Reference
この問題について(合奏する), 我々は、より多くの情報をここで見つけました
https://velog.io/@woongstar/앙상블
テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol
#하드보팅
voting_clf = VotingClassifier(estimators=[
('decision_tree', dtree), ('knn', knn), ('svm', svm)],
weights=[1,1,1], voting='hard').fit(X_train, y_train)
hard_voting_predicted = voting_clf.predict(X_test)
accuracy_score(y_test, hard_voting_predicted)
#소프트보팅
voting_clf = VotingClassifier(estimators=[
('decision_tree', dtree), ('knn', knn), ('svm', svm)],
weights=[1,1,1], voting='soft').fit(X_train, y_train)
soft_voting_predicted = voting_clf.predict(X_test)
accuracy_score(y_test, soft_voting_predicted)
Reference
この問題について(合奏する), 我々は、より多くの情報をここで見つけました https://velog.io/@woongstar/앙상블テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol