AI: 설명가능 인공지능(XAI) 핵심기법 – Local Surrogate

ㅁ 설명가능 인공지능(XAI) 핵심기법

1. Local Surrogate

ㅇ 정의:
특정 예측 결과를 설명하기 위해, 원래 복잡한 모델 대신 해당 예측 근처의 입력 데이터에 대해 단순하고 해석 가능한 대체 모델(선형 회귀, 의사결정나무 등)을 학습시켜 설명하는 기법.

ㅇ 특징:
– 전체 모델(global)을 설명하는 것이 아니라 개별 예측(local)에 집중.
– 원래 모델은 블랙박스로 유지되지만, 근처 데이터 샘플을 생성하여 단순 모델로 근사.
– LIME(Local Interpretable Model-agnostic Explanations) 등이 대표적.
– 모델 불가지론적(model-agnostic) 접근 가능.

ㅇ 적합한 경우:
– 복잡한 모델(딥러닝, 앙상블 등)의 특정 예측 결과를 해석할 때.
– 모델 구조를 알 수 없거나 접근이 제한된 상황.
– 사용자가 단일 예측에 대한 직관적 설명을 요구할 때.

ㅇ 시험 함정:
– Local Surrogate는 전체 모델의 동작을 완벽히 설명하지 못함 → global 설명으로 오해하면 오답.
– 단순 모델이 근사하는 범위는 국소적이며, 데이터 분포에 따라 설명이 달라질 수 있음.
– LIME과 SHAP의 차이를 혼동하는 문제 출제 가능.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Local Surrogate는 특정 예측 근처의 데이터에 단순 모델을 학습시켜 설명한다.”
X: “Local Surrogate는 전체 모델의 모든 예측을 동일하게 설명한다.”

ㅁ 추가 학습 내용

Local Surrogate 기법의 대표적인 예는 LIME이다. LIME은 특정 입력 데이터 주변에서 무작위로 샘플을 생성하고, 원래 모델의 예측값을 라벨로 사용하여 가중치를 부여한 선형 모델을 학습한다. 시험에서는 SHAP과의 비교가 자주 출제되는데, SHAP은 게임이론 기반으로 각 특징의 기여도를 계산하는 반면, LIME은 국소적 근사에 기반한다. Local Surrogate 기법은 모델 불가지론적이지만, 데이터 생성 방식과 가중치 부여 방식에 따라 설명의 신뢰성이 달라질 수 있다. 또한 국소 근사 모델의 복잡도를 높이면 해석력이 떨어지고, 복잡도를 낮추면 설명 정확도가 떨어질 수 있는 트레이드오프가 존재한다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*