목차 오랜만에, 그리고 다소 뜬금없이 파이토치에 대한 글이다. 지난 글에 이어 아주 기초적인 코드를 가지고 데이터 준비부터 모델 학습 및 평가까지의 과정을 알아보려 한다. 총 세 개의 완전 연결층(Fully Connected Layer)로 이루어진 기초적인 MLP 모델이며 활성화 함수는 ReLU를, 과적합 방지를 위해 드롭 아웃을, 손실함수는 MSE, 최적화 알고리즘은 Adam을 사용하였다. 나도 이 단어의 나열이 정확히 무엇을 뜻하는지는 모른다. 코드를 보며 정리해보자. 선 요약 먼저 오늘 구현할 코드와 결과는 다음과 같다:import pandas as pdimport numpy as npfrom sklearn.model_selection import train_test_splitimport torch..
목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
목차 딥러닝의 역사와 발전: 머신러닝에서 딥러닝까지의 여정 인공 신경망의 기본 구조와 중요성 활성화 함수(Activation Functions) 이해하기 손실 함수(Loss Functions)의 역할과 중요성 딥러닝에서의 최적화: 하강법과 경사하강법 확률적 경사 하강법(Stochastic Gradient Descent, SGD) 기울기 사라짐(Vanishing Gradient) 손실 함수와 최적화 컴퓨터 비전(Computer Vision) 합성곱 연산(Convolution) 합성곱 신경망(Convolutional Neural Network, CNN) 순환 신경망(Recurrent Neural Network, RNN) 순환 신경망의 발전(The Evolution of RNN) 오토 인코더(Autoencod..
- Total
- Today
- Yesterday
- 백준
- 야경
- Python
- 파이썬
- 유럽
- BOJ
- 여행
- a6000
- 스트림
- 칼이사
- 유럽여행
- RX100M5
- 남미
- 면접 준비
- 중남미
- 자바
- 맛집
- 세계일주
- 기술면접
- 동적계획법
- 스프링
- Backjoon
- 지지
- java
- 리스트
- Algorithm
- 세계여행
- 알고리즘
- 세모
- spring
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |