-
[평가지표 정리] F1-score, Macro f1-score, Micro f1-scoreML/etc 2022. 4. 3. 22:39
각 지표는 처음 보는 분들에게 혼돈이 될 것입니다. 글로 설명된 내용을 읽어서 이해하기 보다는 간단한 예제를 따라 풀어보면서 지표를 이해하는 것이 도움이 될 것입니다.
- Multilabel classification Task의 경우 각 범주(class)별 f1score를 구하여 평균하여 사용합니다.
- Micro, weighted F1 score의 경우 각 범주 (class)가 불균형 할때, 사용할수 있습니다.
- 다 범주에서 실제값, 예측값의 Match결과
- sklearn.metrics.classification_report을 사용한 결과 정리
- 각 범주별 Precision, Recall, F1 Score
- Macro Average F1 Score
- Weighted Average F1 Score
- Micro Average F1 Score = accuracy = micro-precision = micro-recall
https://scikit-learn.org/stable/modules/generated/sklearn.metrics.f1_score.html
'ML > etc' 카테고리의 다른 글
Hubness Phenomena in feature space (0) 2022.04.21 [Training] Mini Batch를 왜 사용할까? (0) 2022.04.04 [평가지표 정리] DST(Dialogue State Tracking) Micro f1-score (0) 2022.04.03 [평가지표 정리] STS(Semantic Textual Similarity) (0) 2022.04.03 [평가지표 정리] 한국어 자연어 모델의 RE 분석 성능(Micro F1 Score) (0) 2022.04.03