SVMアルゴリズム

969 ワード

SVMアルゴリズムSVMアルゴリズムもあまり神秘的ではない.その中心となる思想は、Input Spaceからより高い次元のFeature Spaceへのマッピングであり、Marginの線形分類を行うことである.
線形可分問題においては、サンプルポイントに対して、1本の直線がサンプルポイントを分割することができ、Hard Margin SVMと呼ぶ.しかし、すべてが完璧というわけではない.
Soft Margin:少量の異常点を含んでいるため、データセットが線形に分割できない場合がありますが、実際には、Hard MarginでもSoft Marginでも、線形サポートベクトルマシンにとっては同じです.
SVMにおいて非線形問題を解決する:低次元空間において線形で不可能なデータは、高次元データに変換でき、データがより解析的になる.次いで,高次元空間での演算は低次元空間に等しい核関数を用いて,演算量の大きな問題を解決した.数学者は、巧みな数学の変換には驚かされます.だから、この文章はKernel Trickと名づけられました.
SVMアルゴリズムの主要な利点は:
  • は、高次元特徴の分類問題と回帰問題を解決するのに効果的であり、特徴次元がサンプル数より大きい場合にも依然として効果的である.
  • は、サポートベクトルの一部だけを使用して、スーパープレーンの決定を行い、すべてのデータに依存する必要はない.
  • には大量の核関数が使用でき、様々な非線形の分類回帰問題を柔軟に解決することができる.
  • サンプル量が大容量のデータではない場合、分類精度が高く、汎化能力が高い.
  • SVMアルゴリズムの主要な欠点は:
  • は、特徴次元がサンプル数よりもはるかに大きい場合、SVMは一般的に表現される.
  • SVMはサンプル量が非常に大きく、核関数のマッピング次元が非常に高い場合、計算量が大きすぎて、使用にはあまり適していません.
  • 非線形問題の核関数の選択には共通の基準がなく、適切な核関数の選択が困難である.
  • SVMは、欠落データに敏感である.