일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 파이썬 이미지 불러오기
- 파이썬 테마
- ORACLE NULL값 처리
- jupyter notebook PDF
- linux 폴더 용량 확인
- 행동평점
- ORACLE 상위 행 추출
- Python Numpy
- Cudnn 버전 확인
- 파이썬 이미지 리스트 변환
- python image load
- linux 폴더 크기 확인
- 주피터노트북 테마 변경
- CSS Fraud Score
- 신청평점
- 신용평가 Fraud
- 주식 데이터 수집
- SQL NVL
- SQL NULL값 처리
- 딥러닝
- 딥러닝 제대로 시작하기
- ORACLE 상위 N개 추출
- 신용평가 부정사용 평점
- jupyter notebook 테마 변경
- 리눅스 저장 용량 확인
- python image list
- ORACLE SQL NVL
- 파이썬 이미지 라벨 저장
- 회수모형
- python pandas
- Today
- Total
목록Deep Learning/Deep Learning Quiz (2)
koos808
내 맘대로 딥러닝 퀴즈 2 GD와 SGD, MGD(Mini-batch GD)의 차이점이 무엇인가? GD : 전체 데이터를 가지고 반복적으로 루프(loop)를 돌려서 그라디언트(gradient)를 계산하고 파라미터(parameter/weight)를 업데이트하는 것 MGD : 학습데이터(training data)의 배치(batches)만 이용해서 그라디언트(gradient)를 구하는 것이다. SGD : MGD 방법의 극단적인 형태는 미니배치(mini-batch)가 데이터 달랑 한개로 이루어졌을 때이다. 이게 SGD이다. 1 epoch동안 학습데이터 개수만큼의 업데이트가 수행됩니다. epoch와 iteration, batch의 차이점은? 1 epoch : 즉, 전체 데이터 셋에 대해 한 번 학습을 완료한 상태..
내 맘대로 퀴즈 1. 그걸 왜 하죠? DNN에서 Pre-training을 왜 하죠? 다층 feed-forward 신경망은 gradient vanishing 문제로 인해 일반적으로는 학습이 잘 되지 않기 때문에 여러 방법 중 하나로 pre-training을 합니다. 오토인코더는 왜 하죠? 오토인코더는 다양한 pre-training 중에 기본적인 방법 중 하나인데요. 가중치의 좋은 초기값을 얻는 목적으로 이용하고 목표 출력없이 입력만으로 구성된 트레이닝 데이터로 비지도 학습을 수행해 데이터의 특징을 나타내기 위해 오토인코더를 합니다. 오토인코더는 머신러닝에서 PCA와 비슷한 역할을 한다고 생각하시면 이해하기 쉬울 것입니다. 이제 오토인코더가 자주 쓰이는 이유에 대해 알려드리도록 하겠습니다. 데이터 압축 : ..