일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 2025년 3월 6일 미국 증시 분석
- css risk
- 딥러닝 제대로 시작하기
- 미국 증시 방향성
- 취업사이트 정리
- 미장 분석
- Python Numpy
- 주식 데이터 수집
- 트럼프 2025년 미국 관세
- 미국 시황
- 연체 css
- 코딩 사이트 정리
- jupyter notebook PDF
- 25년 3월 미국 증시 분석
- 관세 설명
- 딥러닝
- Cudnn 버전 확인
- 미국 증시 분석
- python pandas
- 25년 3월 11일 미국 증시 분석
- css 리스크
- 2025년도 미국 관세
- css 리스크관리
- 25년 3월 증시 분석
- 연체용어
- 25년 3월 12일 미국 증시 분석
- 미국 투자 분석
- 스코어카드 예시
- 스코어카드 만드는법
- 트럼프 미국 관세
- Today
- Total
목록Deep Learning/Deep Learning Quiz (2)
koos808
내 맘대로 딥러닝 퀴즈 2 GD와 SGD, MGD(Mini-batch GD)의 차이점이 무엇인가? GD : 전체 데이터를 가지고 반복적으로 루프(loop)를 돌려서 그라디언트(gradient)를 계산하고 파라미터(parameter/weight)를 업데이트하는 것 MGD : 학습데이터(training data)의 배치(batches)만 이용해서 그라디언트(gradient)를 구하는 것이다. SGD : MGD 방법의 극단적인 형태는 미니배치(mini-batch)가 데이터 달랑 한개로 이루어졌을 때이다. 이게 SGD이다. 1 epoch동안 학습데이터 개수만큼의 업데이트가 수행됩니다. epoch와 iteration, batch의 차이점은? 1 epoch : 즉, 전체 데이터 셋에 대해 한 번 학습을 완료한 상태..
내 맘대로 퀴즈 1. 그걸 왜 하죠? DNN에서 Pre-training을 왜 하죠? 다층 feed-forward 신경망은 gradient vanishing 문제로 인해 일반적으로는 학습이 잘 되지 않기 때문에 여러 방법 중 하나로 pre-training을 합니다. 오토인코더는 왜 하죠? 오토인코더는 다양한 pre-training 중에 기본적인 방법 중 하나인데요. 가중치의 좋은 초기값을 얻는 목적으로 이용하고 목표 출력없이 입력만으로 구성된 트레이닝 데이터로 비지도 학습을 수행해 데이터의 특징을 나타내기 위해 오토인코더를 합니다. 오토인코더는 머신러닝에서 PCA와 비슷한 역할을 한다고 생각하시면 이해하기 쉬울 것입니다. 이제 오토인코더가 자주 쓰이는 이유에 대해 알려드리도록 하겠습니다. 데이터 압축 : ..