AI 모델 개발: 평가지표 – Precision

ㅁ 평가지표

ㅇ 정의:
분류 모델이 예측한 Positive 중 실제로 Positive인 비율을 나타내는 지표. 즉, 모델의 ‘정밀도’를 의미하며, 잘못된 Positive 예측(False Positive)을 얼마나 줄였는지를 평가.

ㅇ 특징:
– 수식: Precision = TP / (TP + FP)
– Positive로 예측한 것 중 정확한 비율을 측정.
– FP를 줄이는 것이 중요한 상황에서 유용.
– Recall과 상호 보완적 관계를 가짐.

ㅇ 적합한 경우:
– 스팸 메일 필터링(정상 메일을 스팸으로 잘못 분류하는 것을 최소화해야 함)
– 의료 진단에서 False Positive 비용이 큰 경우(예: 암 진단에서 잘못된 양성 판정으로 불필요한 치료 발생 방지)

ㅇ 시험 함정:
– Precision과 Recall을 혼동하는 문제.
– Accuracy와 Precision을 동일하게 여기는 경우.
– Precision은 Negative 데이터에 대한 정확도를 반영하지 않음.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Precision은 모델이 Positive로 예측한 것 중 실제 Positive의 비율이다.”
O: “False Positive를 줄이는 데 중점을 둔다.”
X: “Precision은 전체 데이터 중 맞춘 비율이다.” (→ 이는 Accuracy 정의)
X: “Precision은 Recall과 동일하다.”

ㅁ 추가 학습 내용

Precision은 불균형 데이터셋에서 Accuracy보다 더 신뢰할 수 있는 지표로, 특히 Positive 클래스가 희소한 경우에 유용하다. 시험에서는 Precision과 Recall의 관계를 묻거나 F1-score 계산 문제로 연계될 수 있다. Precision-Recall 트레이드오프, PR 곡선, ROC 곡선과의 비교, Threshold 조정에 따른 Precision 변화에 대한 이해가 필요하다. 또한 Precision이 높다고 해서 반드시 좋은 모델이라고 할 수 없음을 알아야 한다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*