AI: 설명가능 인공지능(XAI) 핵심기법 – Completeness

ㅁ 설명가능 인공지능(XAI) 핵심기법

ㅇ 정의:
모델이 제공하는 설명이 전체 예측 결과를 완전하게 반영해야 한다는 원칙. 즉, 모델의 출력값이 설명 변수들의 기여도 합과 정확히 일치해야 함.

ㅇ 특징:
– SHAP, Integrated Gradients 등에서 중요한 속성으로 사용됨.
– 설명의 신뢰성을 높이며, 부분적 설명이 아닌 전체적인 설명을 요구함.
– 수학적으로는 예측값 = 모든 특성 기여도의 합 + 기준값 형태로 표현됨.

ㅇ 적합한 경우:
– 신용평가, 의료진단 등 설명의 완전성이 중요한 분야.
– 모델의 각 입력 특성 기여도를 합산하여 전체 예측을 재구성해야 하는 경우.

ㅇ 시험 함정:
– Completeness를 단순히 “설명이 많다”로 해석하는 오류.
– 일부 기여도가 누락되어도 설명이 가능하다고 착각하는 경우.
– Local 설명과 Global 설명의 차이를 구분하지 못하는 경우.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “Completeness는 모든 특성 기여도의 합이 모델 예측과 일치함을 의미한다.”
– X: “Completeness는 설명이 직관적으로 이해되기 쉬운 정도를 의미한다.”
– O: “SHAP 값은 Completeness 속성을 만족한다.”
– X: “Completeness는 일부 특성만으로도 예측값을 완전히 설명할 수 있음을 의미한다.”

ㅁ 추가 학습 내용

Completeness는 XAI(설명 가능한 인공지능)의 핵심 속성 중 하나로, 특히 Shapley value 기반 기법에서 수학적으로 보장되는 특성이다. 이는 ‘Sum of contributions = model output’ 형태의 수식으로 표현되며, 각 특성(feature)의 기여도를 모두 합하면 모델 출력값과 같아야 함을 의미한다. 이때 Baseline(기준값) 개념이 함께 사용되며, 기여도는 모델 출력과 Baseline 간의 차이를 설명하는 방식으로 계산된다.

Completeness는 Fidelity(설명의 충실도), Consistency(일관성)와 구별해야 한다. Fidelity는 설명이 실제 모델 동작을 얼마나 잘 반영하는지를 나타내며, Consistency는 모델이 바뀌었을 때 설명의 순서나 방향이 일관되게 유지되는지를 의미한다.

Shapley value 기반 기법은 Completeness를 수학적으로 보장하지만, Integrated Gradients, LIME 등 일부 기법은 Completeness를 완전히 만족하지 않을 수 있다. 따라서 시험에서는 Completeness의 정의, 수식, Baseline 개념, 다른 속성과의 차이, 기법별 충족 여부를 명확히 구분할 수 있어야 한다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*