일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- ORACLE NULL값 처리
- CSS Fraud Score
- ORACLE 상위 행 추출
- ORACLE SQL NVL
- 딥러닝 제대로 시작하기
- 주식 데이터 수집
- 파이썬 이미지 불러오기
- jupyter notebook 테마 변경
- 딥러닝
- 신용평가 부정사용 평점
- SQL NVL
- python pandas
- python image load
- 회수모형
- 파이썬 이미지 라벨 저장
- 행동평점
- python image list
- 주피터노트북 테마 변경
- 신청평점
- 파이썬 이미지 리스트 변환
- SQL NULL값 처리
- Python Numpy
- linux 폴더 용량 확인
- jupyter notebook PDF
- linux 폴더 크기 확인
- 리눅스 저장 용량 확인
- ORACLE 상위 N개 추출
- 파이썬 테마
- Cudnn 버전 확인
- 신용평가 Fraud
Archives
- Today
- Total
koos808
Precision과 Recall 본문
728x90
반응형
분류기 (Classifier) 의 성능을 평가하는 Metric에는 Precision과 Recall이 있습니다.
- Precision
Precision = TP/(TP+FP)
orTP/(분류기가 P 로 예측한 것)
- Precision 은 분류기가
P로 예측한 sample 중
에서 맞게 예측한 것의 비율 을 의미한다. == 인식기 (object-detector) 가 검출한 정보들 중에서 Ground-Truth 와 일치하는 비율을 의미한다. - 검출된 정보(TP+FP) 중에서 적절한 것들(TP) 의 비율을 Precision 이라고 한다.
- 영어 위키 : Precision is the probability that a retrieved(검출된) one is relevant(적절한)
- Recall
Recall = TP/(TP+FN)
orTP/(Ground Truth P 의 숫자)
- 전체 정보(TP+FN)중에서 검출된 것(TP)의 비율을 Recall 이라고 한다.
- 즉, Recall 은
Ground Truth 의 총 positive sample 중
에서positive로 맞게 예측한 것
의 비율 을 의미한다. - 영어 위키 : Recall is the probability of the complete retrival(검출된).
- 동일어 : TPR(True Positive Rate), Sensitivity
- FPR(False Positive Rate) = 1-Specificity(TNR : True Negative Rate)
* 설명 잘 되어 있는 블로그 : incredible.ai/statistics/2018/06/30/Performance-Test/#specificity
* 참고 : https://en.wikipedia.org/wiki/Confusion_matrix
728x90
반응형
'Statistics' 카테고리의 다른 글
성능평가지표, 모델 평가 방법 Python Code (0) | 2020.09.28 |
---|---|
코사인 유사도(cosine similarity) + python 코드 (0) | 2020.09.25 |
배깅(Bagging)과 부스팅(Boosting) (0) | 2020.07.05 |
1종 오류와 2종 오류 (0) | 2020.07.05 |
P-value 정의와 이해 (0) | 2020.07.05 |
Comments