けっていじゅ
Contents
1.決定ツリー
2.ジェニーンは気に入らない
3.エントロピー不純度
4.枝切り
#01-決定ツリー
意思決定ツリーは分類学習を指導するのに最も有用である.
方法の1つ.
意思決定ツリーの最大の特徴の1つは、
これは説明可能なモデルです.
その名の通り、「決定木」は、適切な分割条件に従って分割部をダイバーシティする.
このコースを繰り返します.
下の図は韓国のウィキペディアのタイタニック号の乗客の生存の有無です
表示される決定ツリーは可視化されます.
上部のノードをルートノード(root node)と呼びます.
下部ノードをリーフノード(leaf node)と呼ぶ.
#02-ジェニーンは調子が悪い
決定ツリーは、通常のコスト関数ではなく、不一致を使用します.
この不一致を最小限に抑えるために、決定ツリーを学習します.
Genieの不純度を解く方法は以下の通りである.
1−∑i=1mfi21 -\sum_{i=1}^m f_{i}^21−∑i=1mfi2
ここでfif{i}fiはiの2番目のクラスパーセントである.
従って、Genieの不純度は1−(iクラス比の2乗の和)である.
ジェニーンの不順度とエントロピーの不順度は違います
孤立する傾向がある.
#03-エントロピー不純度
Genieの不純度と共に決定木でよく用いられる不純エントロピーの不純度は
Genieと比較して、比較的等化したツリーを作成できるのが特徴です.
エントロピーの純度を求める方法は以下の通りである.
−∑i=1kpi log2pi-\sum_{i=1}^k p_{i}\;log_{2} p_{i}−∑i=1kpilog2pi
ここでpip{i}piはiクラスのパーセンテージである.
#04-枝切り
決定木は「枝切り」とも呼ばれ、モデルの一般化に用いられる.
決定ツリーは、ツリーの深さなどを調整してトリミングできます.
枝切りも適切なスーパーパラメータを入力する必要があります.
ツリーの深さを制限しすぎると、モデルの精度が低下する可能性があります.
木の深さの制限が小さくても、モデルの汎用性は悪くなります.
1.決定ツリー
2.ジェニーンは気に入らない
3.エントロピー不純度
4.枝切り
#01-決定ツリー
意思決定ツリーは分類学習を指導するのに最も有用である.
方法の1つ.
意思決定ツリーの最大の特徴の1つは、
これは説明可能なモデルです.
その名の通り、「決定木」は、適切な分割条件に従って分割部をダイバーシティする.
このコースを繰り返します.
下の図は韓国のウィキペディアのタイタニック号の乗客の生存の有無です
表示される決定ツリーは可視化されます.
上部のノードをルートノード(root node)と呼びます.
下部ノードをリーフノード(leaf node)と呼ぶ.
#02-ジェニーンは調子が悪い
決定ツリーは、通常のコスト関数ではなく、不一致を使用します.
この不一致を最小限に抑えるために、決定ツリーを学習します.
Genieの不純度を解く方法は以下の通りである.
1−∑i=1mfi21 -\sum_{i=1}^m f_{i}^21−∑i=1mfi2
ここでfif{i}fiはiの2番目のクラスパーセントである.
従って、Genieの不純度は1−(iクラス比の2乗の和)である.
ジェニーンの不順度とエントロピーの不順度は違います
孤立する傾向がある.
#03-エントロピー不純度
Genieの不純度と共に決定木でよく用いられる不純エントロピーの不純度は
Genieと比較して、比較的等化したツリーを作成できるのが特徴です.
エントロピーの純度を求める方法は以下の通りである.
−∑i=1kpi log2pi-\sum_{i=1}^k p_{i}\;log_{2} p_{i}−∑i=1kpilog2pi
ここでpip{i}piはiクラスのパーセンテージである.
#04-枝切り
決定木は「枝切り」とも呼ばれ、モデルの一般化に用いられる.
決定ツリーは、ツリーの深さなどを調整してトリミングできます.
枝切りも適切なスーパーパラメータを入力する必要があります.
ツリーの深さを制限しすぎると、モデルの精度が低下する可能性があります.
木の深さの制限が小さくても、モデルの汎用性は悪くなります.
Reference
この問題について(けっていじゅ), 我々は、より多くの情報をここで見つけました https://velog.io/@eogns1208/결정-트리テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol