AI 모델 개발: 평가지표 – Recall

ㅁ 평가지표

ㅇ 정의:
분류 모델이 실제 양성(Positive)인 데이터 중에서 모델이 올바르게 양성으로 예측한 비율을 나타내는 지표. 민감도(Sensitivity) 또는 재현율이라고도 함.

ㅇ 특징:
– 값이 높을수록 실제 양성을 잘 찾아냄.
– False Negative(실제 양성을 음성으로 잘못 분류) 감소에 초점.
– 의료 진단, 보안 침입 탐지 등 놓치면 안 되는 사례에서 중요.
– Precision과 상충 관계에 있음.

ㅇ 적합한 경우:
– 암 진단 모델처럼 실제 양성을 놓치는 것이 치명적인 경우.
– 사기 거래 탐지처럼 놓친 사례가 큰 피해로 이어지는 경우.

ㅇ 시험 함정:
– Recall은 False Positive와 직접적인 관련이 없음.
– Accuracy와 혼동하는 경우가 많음.
– Precision과 Recall이 모두 높은 경우는 드물다는 점을 간과.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Recall은 실제 양성 중 모델이 양성으로 예측한 비율이다.”
X: “Recall은 모델이 양성으로 예측한 것 중 실제 양성의 비율이다.” (→ Precision 정의)
X: “Recall은 False Positive를 줄이는 데 초점을 둔다.” (→ Precision 관련 설명)

ㅁ 추가 학습 내용

Recall은 TP / (TP + FN)으로 계산되며, 민감도(Sensitivity)와 동일하다. 시험에서는 Precision과 정의를 바꿔 제시하는 경우가 많으므로, 분모가 TP + FN임을 반드시 기억해야 한다. Recall은 ROC 커브에서 TPR(True Positive Rate)과 동일하며, F1-score 계산 시 Precision과 함께 사용된다. 또한 불균형 데이터셋에서 Accuracy보다 더 의미 있는 지표이다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*