티스토리 뷰
목차
[선형대수학]머신러닝과 딥 러닝의 핵심, 선형대수학의 역할과 중요성
[선형대수학]부분행렬과 분할행렬: 공통점과 차이점, ML/DL에의 응용
[선형대수학]역행렬과 행렬식의 성질, ML/DL과의 관계
[선형대수학]행렬의 해와 감소된 행 계단형(Reduced Row Echelon Form, RREF)
[선형대수학]벡터 공간과 기저, 차원 그리고 ML/DL
[선형대수학]선형변환과 고윳값의 이해: 머신러닝/딥러닝에서의 응용
[선형대수학]벡터 공간의 대각화와 그 응용 - 유사 행렬 및 머신러닝에서의 중요성
[선형대수학]특이값 분해(SVD): 기본부터 머신러닝/딥러닝까지의 응용
[선형대수학]실 이차 형식과 양의 정부호 행렬: 머신러닝/딥러닝에의 응용
Introduction
벡터 공간과 선형변환은 수학과 머신러닝/딥러닝 분야에서 중요한 개념이다.
이 글에서는 선형 변환의 정의와 특성, 고윳값(eigenvalue)과 고유벡터(eigenvector)의 개념을 탐구하고,
이러한 수학적 이론이 어떻게 머신러닝 및 딥러닝에 적용되는지 살펴보겠다.
Linear Transformation
선형 변환은 두 벡터 공간 V와 W 사이의 함수 L : V → W로 정의된다.
이 변환은 다음의 두 성질을 만족해야 한다.
- 임의의 벡터 a와 b에 대해 L(a + b) = L(a) + L(b)이며,
- 임의의 실수 r에 대해 L(ra) = rL(a)입니다.
선형 변환은 매트릭스 연산으로 표현되어, 데이터의 변환 및 해석에 널리 사용된다.
Eigenvalues and Eigenvectors
고윳값과 고유벡터는 선형 변환의 핵심적인 개념이다.
어떤 선형 변환 L이 있을 때, 고유벡터는 L에 의해 방향은 유지한 채 크기만 변하는 벡터이다.
즉, L(x) = λx라는 식을 만족하는 x이다.
여기서 λ는 스칼라 값이며 고윳값이라고 불린다.
이는 변환에 의해 벡터가 스케일링(크기 변경)되는 비율을 나타낸다.
예를 들어, 어떤 행렬 A가 있을 때, A에 의한 변환에서 방향은 그대로 유지되고
크기만 λ배로 변하는 벡터 x를 찾는 것이 고윳값과 고유벡터를 찾는 과정이다.
이 과정은 시스템의 근본적인 특성을 파악하고, 데이터의 중요한 구조를 이해하는 데 도움을 준다.
Characteristic Polynomial and Equation
Characteristic Polynomial은 고유값을 찾기 위한 방정식을 만드는 데 사용되는 다항식이다.
n차원 정사각 행렬 A에 대해, Characteristic Polynomial p(λ)는 $λI_n - A$로 정의된다.
또한 Characteristic Equation p(λ)는 $det(λIn - A) = 0$으로 정의한다.
여기서 det는 행렬의 행렬식을, $I_n$은 n차 단위 행렬을 의미한다.
이 과정은 어떤 행렬 A의 고유값을 찾기 위해 행렬식을 이용해 다항식 방정식을 세우는 것이다.
이 방정식의 해(λ 값)가 고유값이 된다.
예를 들어, A가 2x2 행렬일 경우, characteristic equation은 $λ² - (trace of A)λ + det(A) = 0$의 형태를 가진다.
이때, trace는 행렬 대각선 원소의 합, det는 행렬식을 의미한다.
이 방정식을 풀어서 얻은 λ 값들이 A의 고윳값이 되며,
이 값을 원래의 선형 변환식에 대입하여 고유벡터를 찾을 수 있다.
ML/DL
고유값 분석은 머신러닝과 딥러닝에서 데이터의 차원 축소, 주요 특성 추출, 데이터 압축 등에 사용된다.
예를 들어, PCA(Principal Component Analysis)는 고윳값 분해를 통해 데이터의 주요 구성 요소를 찾는 방법이다.
이는 불필요한 정보를 줄이고, 계산 효율성을 높이며, 더 나은 인사이트를 얻는 데 도움을 준다.
Conclusion
선형 변환과 고유값은 수학적으로 우아하며, 머신러닝과 딥러닝 분야에서 강력한 도구로 사용된다.
이들 개념의 이해는 데이터의 본질적인 특성을 파악하고, 효율적인 알고리즘을 개발하는 데 필수적이다.
'ML+DL > Linear Algebra' 카테고리의 다른 글
[선형대수학]특이값 분해와 고윳값: 공통점과 차이점 (1) | 2024.02.21 |
---|---|
[선형대수학]특이값 분해(SVD): 기본부터 머신러닝/딥러닝까지의 응용 (0) | 2024.02.21 |
[선형대수학]벡터 공간의 대각화와 그 응용 - 유사 행렬 및 머신러닝에서의 중요성 (0) | 2024.02.20 |
[선형대수학]최소 제곱해 (0) | 2024.02.16 |
[선형대수학]정규직교 기저와 그람-슈미트 프로세스 (0) | 2024.02.14 |
[선형대수학]벡터의 내적과 그 응용 (0) | 2024.02.12 |
- Total
- Today
- Yesterday
- 중남미
- 지지
- 알고리즘
- Python
- 유럽여행
- 면접 준비
- spring
- 백준
- Algorithm
- 여행
- 칼이사
- Backjoon
- 리스트
- java
- 파이썬
- 유럽
- BOJ
- 자바
- 동적계획법
- 세모
- 남미
- RX100M5
- 야경
- 세계여행
- 세계일주
- 기술면접
- 스프링
- 맛집
- 스트림
- a6000
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |