티스토리 뷰
목차
활성화 함수(Activation Functions) 이해하기
손실 함수(Loss Functions)의 역할과 중요성
확률적 경사 하강법(Stochastic Gradient Descent, SGD)
합성곱 신경망(Convolutional Neural Network, CNN)
순환 신경망(Recurrent Neural Network, RNN)
순환 신경망의 발전(The Evolution of RNN)
Limitations of Descent Method
하강법은 손실 함수의 기울기를 사용하여 최솟값을 찾는 방법이다.
이 방법은 최적화 문제에서 중요한 역할을 하지만, 복잡한 모델과 데이터에서는 한계를 갖는다.
그 이유 중 하나는 지역 최솟값(local minimum) 또는 안장점(saddle points)에 빠질 수 있다는 점이다.
이는 함수의 기울기가 0이 되는 지점이 반드시 전체 최솟값이 아닐 수 있기 때문이다.
특히, 비볼록(non-convex) 함수에서는 여러 지역 최솟값이 존재할 수 있으며,
이는 하강법이 전역 최솟값(global minimum)에 도달한다는 보장을 하지 못한다.
Loss Functions
손실 함수는 모델의 예측값과 실제 값 사이의 차이를 수치화한다.
평균 절대 오차(MAE), 평균 제곱 오차(MSE), 크로스 엔트로피(Cross Entropy)는 대표적인 손실 함수이며
볼록성(Convexity)을 지닌다.
볼록 함수는 어떤 직선을 그렸을 때, 그 직선이 함수의 그래프와 접하거나 그 위에 있을 경우를 말한다.
볼록성을 갖는 손실 함수를 사용하면 하강법과 같은 최적화 알고리즘이 지역 최솟값에 갇히지 않고
전역 최솟값을 찾을 가능성이 높아진다.
Relationship between Convexity and Optimization
이는 볼록 함수의 어떤 두 점을 선택했을 때, 그 점들을 잇는 선분이 함수의 그래프 위에 있음을 의미한다.
이 성질은 볼록 최적화 문제에서 하강법을 사용할 때, 매 반복마다 전역 최솟값에 점점 더 가까워진다는 것을 보장한다.
따라서 볼록 함수의 최적화는 매우 중요하며,
이는 머신러닝 모델을 훈련시킬 때 안정적이고 예측 가능한 결과를 얻을 수 있게 한다.
Convexity
볼록성은 함수가 지닌 중요한 기하학적 특성이다.
함수가 오목(concave) 일 때 그 음수는 볼록(convex)이 되며,
이는 최적화 과정에서 목적 함수를 변형하는 데 사용될 수 있다.
두 볼록 함수의 선형 조합이나 최댓값 또한 볼록함을 유지한다.
모든 놈(norm)이 볼록하다는 것도 최적화에 유용한 속성이다.
두 함수가 볼록하고, 한 함수가 다른 함수의 일변수 증가함수일 경우, 이들의 합성함수도 볼록함을 보인다.
'ML+DL > Deep Learning' 카테고리의 다른 글
합성곱 신경망(Convolutional Neural Network, CNN) (0) | 2024.04.07 |
---|---|
합성곱 연산(Convolution) (0) | 2024.04.05 |
컴퓨터 비전(Computer Vision) (0) | 2024.04.04 |
기울기 사라짐(Vanishing Gradient) (0) | 2024.04.04 |
확률적 경사 하강법(Stochastic Gradient Descent, SGD) (0) | 2024.04.02 |
딥러닝에서의 최적화: 하강법과 경사하강법 (0) | 2024.03.27 |
- Total
- Today
- Yesterday
- 세모
- 면접 준비
- Algorithm
- 스트림
- 리스트
- 백준
- a6000
- 자바
- BOJ
- 맛집
- 지지
- 스프링
- 여행
- spring
- 세계여행
- 동적계획법
- RX100M5
- 야경
- 알고리즘
- java
- Python
- 남미
- 파이썬
- 칼이사
- 유럽
- Backjoon
- 유럽여행
- 기술면접
- 세계일주
- 중남미
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |