평가지표: Recall
ㅁ 평가지표
ㅇ 정의:
모델의 재현율을 나타내는 지표로, 실제 긍정 사례 중에서 모델이 올바르게 예측한 긍정 사례의 비율.
ㅇ 특징:
– 민감도(Sensitivity)라고도 불리며, 특히 불균형 데이터셋에서 중요한 지표로 사용됨.
– Recall이 높으면 실제 긍정 사례를 많이 잡아내지만, False Positive 증가 가능성 있음.
ㅇ 적합한 경우:
– 질병 진단 모델처럼 False Negative를 최소화해야 하는 경우.
– 중요한 이벤트를 놓치지 않아야 하는 상황.
ㅇ 시험 함정:
– Precision과 혼동하여 정의를 잘못 이해하는 경우.
– Recall이 높다고 해서 항상 모델 성능이 좋은 것은 아님.
ㅇ 시험 대비 “패턴 보기” 예시:
1. O: Recall은 실제 긍정 사례 중에서 모델이 올바르게 예측한 긍정 사례의 비율이다.
2. X: Recall은 모델이 예측한 긍정 사례 중에서 실제 긍정 사례의 비율이다.
ㅁ 추가 학습 내용
F1-Score는 모델의 성능을 평가하는 데 사용되는 지표로, Recall과 Precision의 조화 평균을 계산합니다. Recall은 실제 긍정 사례 중에서 모델이 올바르게 예측한 비율을 의미하며, Precision은 모델이 긍정으로 예측한 사례 중에서 실제로 긍정인 비율을 나타냅니다. F1-Score는 Precision과 Recall의 균형을 평가하는 데 유용하며, 두 값이 모두 중요할 때 사용됩니다. F1-Score는 다음과 같이 계산됩니다:
F1-Score = 2 * (Precision * Recall) / (Precision + Recall)
Recall을 높이기 위한 구체적인 방법 중 하나는 임계값(threshold)을 조정하는 것입니다. 모델이 긍정 클래스를 예측하는 기준을 낮추면 더 많은 사례를 긍정으로 분류할 수 있으므로 Recall이 증가할 가능성이 있습니다. 그러나 이 경우 Precision이 낮아질 수 있으므로, Recall과 Precision 사이의 균형을 고려해야 합니다.
Recall-Precision Trade-off는 모델이 긍정 사례를 얼마나 잘 식별하는지(Recall)와 긍정으로 예측한 사례 중 얼마나 정확한지를(Precision) 동시에 고려해야 하는 상황을 설명합니다. 임계값 조정은 이 두 지표 간의 관계를 조정하는 데 중요한 역할을 합니다. 일반적으로 Recall을 높이면 Precision이 낮아지고, Precision을 높이면 Recall이 낮아지는 경향이 있습니다. 따라서 특정 문제의 목표에 따라 두 지표 간의 균형을 맞추는 것이 중요합니다. 예를 들어, 의료 진단과 같은 분야에서는 Recall을 높이는 것이 중요할 수 있으며, 반면 Precision이 더 중요한 경우도 있습니다.
결론적으로, F1-Score를 통해 Recall과 Precision의 균형을 평가하고, 임계값 조정을 통해 원하는 목표에 맞게 Recall과 Precision을 조율하며, 두 지표 간의 Trade-off를 이해하는 것이 시험 대비에 유리합니다.