목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
안녕하세요, 여러분! '고양이 두 잔' 블로그의 지기입니다. 오늘 소개해 드릴 곳은 제 마음속에 품은 지 오래된 점심 맛집, 바로 '3일 소고기국밥'이랍니다. 이름만 들어도 콧노래가 절로 나오지요? 영업시간을 먼저 알려드리자면, 평일 월요일부터 금요일은 아침 11시부터 밤 9시까지, 토요일은 11시부터 오후 2시까지에요. 공휴일도 포함해서 열심히 문을 열고 있는데요, 일하는 분들 정말 존경스럽죠! 이 집의 소고기국밥, 이름에서 알 수 있듯이 3일 동안 끓여낸 그 진한 국물 맛이 일품이에요. 깊고 진한 소고기의 풍미를 만끽할 수 있는데, 한 번 맛보면 그 맛을 잊을 수 없답니다. 거기에 가격도 착해서 9000원이면 그 맛을 경험할 수 있어요. 이곳의 제육볶음은 정말 말로만 들어도 군침이 도는데요, 직화로 ..
목차 <h2 style="box-sizing: border-box; border-right-width: 0px; border-top-width: 0px; border-left: #6DABE4 10px solid; border-bottom: #FFD8D8 0px solid; line-height: 1.7; margin-right: 0px; padding: 3px 5px 3px 10px;" data-ke..
목차 [선형대수학]머신러닝과 딥 러닝의 핵심, 선형대수학의 역할과 중요성 [선형대수학]부분행렬과 분할행렬: 공통점과 차이점, ML/DL에의 응용 [선형대수학]역행렬과 행렬식의 성질, ML/DL과의 관계 [선형대수학]행렬의 해와 감소된 행 계단형(Reduced Row Echelon Form, RREF) [선형대수학]벡터 공간(Vector Spaces) [선형대수학]벡터 공간과 일차 독립 [선형대수학]벡터 공간과 기저, 차원 그리고 ML/DL [선형대수학]차원의 저주: 데이터 분석의 걸림돌 [선형대수학]행렬의 랭크와 그 응용 [선형대수학]벡터의 내적과 그 응용 [선형대수학]정규직교 기저와 그람-슈미트 프로세스 [선형대수학]최소 제곱해 [선형대수학]선형변환과 고윳값의 이해: 머신러닝/딥러닝에서의 응용 [선형대..
목차 [선형대수학]머신러닝과 딥 러닝의 핵심, 선형대수학의 역할과 중요성 [선형대수학]부분행렬과 분할행렬: 공통점과 차이점, ML/DL에의 응용 [선형대수학]역행렬과 행렬식의 성질, ML/DL과의 관계 [선형대수학]행렬의 해와 감소된 행 계단형(Reduced Row Echelon Form, RREF) [선형대수학]벡터 공간(Vector Spaces) [선형대수학]벡터 공간과 일차 독립 [선형대수학]벡터 공간과 기저, 차원 그리고 ML/DL [선형대수학]차원의 저주: 데이터 분석의 걸림돌 [선형대수학]행렬의 랭크와 그 응용 [선형대수학]벡터의 내적과 그 응용 [선형대수학]정규직교 기저와 그람-슈미트 프로세스 [선형대수학]최소 제곱해 [선형대수학]선형변환과 고윳값의 이해: 머신러닝/딥러닝에서의 응용 [선형대..
- Total
- Today
- Yesterday
- 야경
- 여행
- 스프링
- BOJ
- Python
- 자바
- Algorithm
- spring
- a6000
- 동적계획법
- 맛집
- 파이썬
- RX100M5
- 유럽여행
- 스트림
- 백준
- 세계여행
- 칼이사
- 알고리즘
- 세계일주
- 유럽
- 리스트
- 기술면접
- 중남미
- Backjoon
- 남미
- 지지
- 세모
- java
- 면접 준비
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |