목차 전이 학습(Transfer Learning) 전이 학습(Transfer Learning)은 딥러닝 모델이 이미 학습한 정보를 새로운 작업에 재사용하는 방법이다. 예를 들어, ImageNet이라는 대규모 데이터셋에서 학습된 모델은 일반적인 이미지 분류 작업에 필요한 유용한 특성을 이미 학습했기 때문에, 이를 활용해 상대적으로 작은 데이터셋(CIFAR-10)에서 학습 시간을 단축하고 성능을 높이는 데 사용할 수 있다. 전이 학습의 중요성은 다음과 같다: 데이터 효율성: 대규모 데이터가 부족한 상황에서 모델의 일반화 능력을 향상한다.학습 시간 단축: 사전 학습된 모델을 기반으로 학습하기 때문에 초기 단계부터 학습할 필요가 없다.성능 향상: 기존 모델의 강력한 특성 표현력을 활용하여 더 나은 성능을 얻을 ..
목차 지난 글에선 기초적인 MLP를 이용한 집값 예측 모델을 만들어 보았다. 이번 글에서는 컴퓨터 비전 쪽으로 넘어와서 CNN을 이용해 CIFAR-10 데이터셋을 학습하고, 테스트 데이터를 분류하는 코드를 구현해 보겠다. 참고로 CIFAR-10은 10가지 클래스(예: 자동차, 개, 새 등)의 컬러 이미지를 포함한 데이터셋이며, 딥러닝에서 CNN은 이미지 데이터의 특성을 잘 학습하기 때문에 이미지 분류 문제에 자주 사용된다. 사실 구현이라기 보단 학습 코드를 뜯어보는 것에 가깝기 때문에, 별 새로운 내용은 없다. 선 요약 먼저 오늘 뜯어볼 코드와 결과는 다음과 같다:import torchimport torchvision.datasets as datasetsimport torchvision.transform..
- Total
- Today
- Yesterday
- 중남미
- Backjoon
- 유럽여행
- Python
- 여행
- 남미
- 칼이사
- 동적계획법
- RX100M5
- 리스트
- 지지
- 백준
- 파이썬
- spring
- a6000
- 스트림
- 자바
- java
- 기술면접
- 스프링
- 유럽
- 야경
- 맛집
- Algorithm
- BOJ
- 세계일주
- 알고리즘
- 세계여행
- 면접 준비
- 세모
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |