「データ可視化のDimensional Reduction:PCAとT-SNE、UMAPとLDA」Article Review in韓国語
3819 ワード
原文:https://towardsdatascience.com/dimensionality-reduction-for-data-visualization-pca-vs-tsne-vs-umap-be4aa7b1cb29
이 글은 개인적인 공부를 위해 해외 기사를 번역해서 리뷰한 것입니다!
What is Dimensionality Reduction?
Main Approaches for Dimensionality Reduction
Projection
Manifold Learning
->研修インスタンスが存在する場所は、実際のサブスペース
What is Manifold Learning?
Manifold = 고차원의 데이터
- 고차원의 데이터를 공간상에 표현할 때 찍히는 점들을 아우르는 subspace = Manifold(원본 공간)
- Manifold를 찾는 것 = Manifold Learning
- 잘 찾은 Manifold에서 projection 시키면 데이터의 차원이 축소될 수 있다.
- Manifold 학습 = 학습이 되지 않은 상태에서 데이터를 통해 모델을 학습해 나가는 것.
- 스위스 롤
Manifold LearningはManifold仮定に基づいている.
Manifold Hypothesis(assumption) in general
(a) Natural data in high dimensional spaces concemtrates close to lower dimensional manifolds
:高次元データの密度は低いが、これらのデータセットを含む低次元管理フォルダがある.
(b) Probability density decreases very rapidly when moving away from the supporting manifold.
:この低次元のバンパーを离れた瞬间、密度が急激に低下.
reference : https://junstar92.tistory.com/157
Manifold assumption in semi-supervised learning?
(a) the input space is composed of multiple lower-dimensional manifolds on which all data lie
(b) data points lying on the same manifold have the same label
Manifold学習はナビゲーションデータ解析に有用であり,学習を指導するのに用いられないため,半監督として用いられる.
最大の目的は、隣接するデータポイントの情報を保持することです.
PCA(principal Component Analysis)
Principal Components
t-SNE(T-distributed stochastic neighbour embedding)
したがって、データの意味を保持することができる.
LDA(Linear Discriminant Analysis)
UMAP(Uniform Maniold Approximation and Projection)
Reference
この問題について(「データ可視化のDimensional Reduction:PCAとT-SNE、UMAPとLDA」Article Review in韓国語), 我々は、より多くの情報をここで見つけました https://velog.io/@jee-9/Dimensionality-Reduction-for-Data-Visualization-PCA-vs-t-SNE-vs-UMAP-vs-LDA-Article-Review-in-한국어テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol