목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
[선형대수학]머신러닝과 딥 러닝의 핵심, 선형대수학의 역할과 중요성 [선형대수학]부분행렬과 분할행렬: 공통점과 차이점, ML/DL에의 응용 [선형대수학]역행렬과 행렬식의 성질, ML/DL과의 관계 [선형대수학]행렬의 해와 감소된 행 계단형(Reduced Row Echelon Form, RREF) [선형대수학]벡터 공간(Vector Spaces) [선형대수학]벡터 공간과 일차 독립 [선형대수학]벡터 공간과 기저, 차원 그리고 ML/DL [선형대수학]차원의 저주: 데이터 분석의 걸림돌 [선형대수학]행렬의 랭크와 그 응용 [선형대수학]벡터의 내적과 그 응용 [선형대수학]정규직교 기저와 그람-슈미트 프로세스 [선형대수학]최소 제곱해 [선형대수학]선형변환과 고윳값의 이해: 머신러닝/딥러닝에서의 응용 [선형대수학]..
목차 PyTorch는 딥러닝에 사용되는 오픈소스 라이브러리이다. 이름처럼 파이썬과 궁합이 좋으며, Numpy 등을 텐서로 가져올 수 있고 GPU 가속 기능(CUDA)을 지원한다. 이 글에선 파이토치를 학습하기 위한 밑준비로, 사용하는 단어를 간단하게 정리하고 넘어가려고 한다. Pytorch 파이토치라는 이름은 기존에 사용되던, Lua로 구성된 머신러닝 라이브러리 토치(Torch)에서 왔다. 2015년 설립된 FAIR(Facebook AI Lab, 페이스북 인공지능 연구소)가 주도하여 개발을 진행, 2016년 가을 처음으로 공개되었다. CUDA CUDA(Compute Unified Device Architecture)는 NVIDIA가 만든, GPGPU(General-Purpose computing on G..
- Total
- Today
- Yesterday
- 세모
- 칼이사
- 지지
- Python
- 세계일주
- 백준
- 리스트
- Algorithm
- 파이썬
- 세계여행
- 여행
- 동적계획법
- 스프링
- 맛집
- 자바
- 남미
- java
- 유럽여행
- 기술면접
- Backjoon
- a6000
- 유럽
- 중남미
- BOJ
- spring
- RX100M5
- 면접 준비
- 스트림
- 알고리즘
- 야경
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |