반응형
Unsupervised Learning은 Supervised Learning과 달리 Data에 Label이 없이 학습하는 것이다 대표적인 예시에는
Cluster(K-means Clustering), PCA 등이 있다.
K-menas Clustering에서 유의미하게 설정할것은 K를 몇으로 할것인가?, K의 시작점을 어디로 할것인가 이다.
PCA는 차원축소를 하는 하나의 알고리즘인데 이는 SVD와 큰 관계가 잇다.
차원 축소의 원리는 중요한 "Eigen vector"들을 뽑는것인데 이에 관한 자세한 설명은
선형대수학
선형대수학을 한 번에 보는것은 '불가능'이다. 그래서 매우 빠르게 개념들만 나열하고 지나가보도록한다. 모르는 용어는 "반드시" 다시 찾아보고가자 정말 기본 of 기본 용어들이다. 1. 스칼라,
cas12kr.tistory.com
에 Eigen vector와 SVD파트를 보면 좋을것 같다.
쉽게 이야기하면 가장 중요한 feature들을 뽑아서 차원을 축소한다는 이야기이고 그 Feature를 뽑는 기준이 Eigen Value라고 생각하면 될것 같다.
반응형
'컴퓨터 과학 > 인공지능' 카테고리의 다른 글
ollama에 다른 모델 올리기 (0) | 2025.02.22 |
---|---|
딥러닝 기본 (0) | 2023.07.17 |
Supervised Learning (0) | 2023.07.17 |
Bayesian Statistics (Frequentist vs Bayesian) (0) | 2023.07.13 |
Maximum Likelihood Estimation (0) | 2023.07.13 |