
목차CNN에서는 합성곱 계층(Convolutional Layer)에서 활성화 함수(예: ReLU)를 적용한 후, 완전 연결층(Fully Connected Layer)에서도 활성화 함수를 한 번 더 적용한다. 이유는 완전 연결층이 수행하는 역할과 신경망의 학습 방식 때문이다. 활성화 함수는 왜 여러 번 적용될까? CNN의 각 계층에서 활성화 함수를 적용하는 이유는 각 층이 독립적으로 의미 있는 표현(Feature Representation)을 학습해야 하기 때문이다. 즉, 합성곱 계층과 완전 연결층이 담당하는 역할이 다르므로, 활성화 함수를 두 번 적용하는 것이 필수적이다. 합성곱 계층(Convolutional Layer)에서 활성화 함수 역할 합성곱 연산을 통해 CNN은 로우 레벨 특징(Low-lev..
ML+DL/Vision AI
2025. 3. 11. 17:53
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 지지
- 스트림
- 파이썬
- 남미
- Python
- spring
- 동적계획법
- a6000
- RX100M5
- 백준
- 세모
- 여행
- 중남미
- Algorithm
- 칼이사
- 유럽여행
- 세계일주
- 야경
- Backjoon
- 면접 준비
- 리스트
- 맛집
- 세계여행
- 기술면접
- 알고리즘
- 스프링
- 유럽
- java
- 자바
- BOJ
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
글 보관함