AI: 설명가능 인공지능(XAI) 핵심기법 – Comprehensibility
ㅁ 설명가능 인공지능(XAI) 핵심기법
ㅇ 정의:
사용자가 인공지능 모델의 동작 원리와 예측 결과를 직관적으로 이해할 수 있도록 정보를 제공하는 능력. 모델의 복잡성을 줄이거나, 결과를 사람이 해석 가능한 형태로 변환하는 것을 목표로 함.
ㅇ 특징:
– 주로 시각화, 규칙 기반 설명, 예시 기반 설명 등을 활용
– 비전문가도 이해할 수 있도록 단순화된 표현 사용
– 모델의 신뢰성 향상 및 의사결정 지원에 기여
ㅇ 적합한 경우:
– 금융, 의료, 법률 등 설명 책임이 중요한 분야
– 규제 준수를 위해 모델의 의사결정 근거를 제시해야 하는 경우
– 이해관계자 설득이 필요한 프로젝트
ㅇ 시험 함정:
– Comprehensibility는 모델의 정확도를 높이는 것과 동일하지 않음(O)
– Comprehensibility는 항상 모델의 성능을 저하시키는 특성이 아님(O)
– Comprehensibility는 모델의 투명성과 동일한 개념임(X)
ㅇ 시험 대비 “패턴 보기” 예시:
– “Comprehensibility는 비전문가도 모델의 결과를 이해할 수 있도록 하는 XAI의 특성이다.” (O)
– “Comprehensibility는 모델의 예측 성능을 반드시 향상시킨다.” (X)
– “Comprehensibility는 설명가능성과 투명성을 모두 포함하는 개념이다.” (O)
ㅁ 추가 학습 내용
Comprehensibility와 혼동하기 쉬운 개념으로 Interpretability와 Transparency가 있다.
Interpretability는 모델의 내부 작동 원리를 논리적으로 설명할 수 있는 능력을 의미한다.
Transparency는 모델의 구조와 파라미터가 완전히 공개되어 있는 상태를 의미한다.
Comprehensibility는 최종 사용자가 이해할 수 있는 수준으로 결과를 전달하는 데 초점을 둔다.
Comprehensibility를 높이기 위한 주요 기법에는 LIME, SHAP, Rule-based Models, Decision Trees, Counterfactual Explanations 등이 있다.
시험에서는 이러한 기법들의 장단점과 적용 사례를 묻는 문제가 자주 출제된다.
특히 “Comprehensibility를 높이면 항상 성능이 낮아진다”는 오답 패턴에 주의해야 한다.