AI: 설명가능 인공지능(XAI) 핵심기법 – Global Surrogate

ㅁ 설명가능 인공지능(XAI) 핵심기법

1. Global Surrogate

ㅇ 정의:
복잡하고 블랙박스 형태의 원래 모델을 대체하여 전체 예측 동작을 근사하는 해석 가능한 모델(예: 의사결정나무, 선형회귀)을 학습시키는 방법.

ㅇ 특징:
– 원래 모델 전체의 전역적 동작 패턴을 설명.
– surrogate 모델은 해석 가능성을 위해 단순한 구조를 가짐.
– 원래 모델과 surrogate 모델은 입력-출력 데이터셋을 공유하여 학습.
– 정확도는 원래 모델보다 낮을 수 있으나, 해석 가능성이 높음.

ㅇ 적합한 경우:
– 전체 모델의 전반적인 의사결정 경향을 이해하고자 할 때.
– 규제 준수나 경영 보고서 등에서 전역 설명이 필요한 경우.
– 원래 모델이 너무 복잡해 개별 예측 설명이 어려운 경우.

ㅇ 시험 함정:
– Global Surrogate는 전체 모델의 경향을 설명하는 것이지, 개별 예측에 대한 정확한 설명을 보장하지 않음.
– surrogate 모델의 성능이 낮으면 설명의 신뢰성도 떨어짐.
– Local Surrogate(LIME 등)과 혼동하기 쉬움.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Global Surrogate는 블랙박스 모델의 전역적 동작을 단순 모델로 근사한다.”
X: “Global Surrogate는 개별 예측에 대한 지역적 설명을 제공한다.”

ㅁ 추가 학습 내용

Global Surrogate 기법은 원래 복잡한 모델의 전반적인 동작을 설명하기 위해, 해석이 쉬운 다른 모델을 학습시키는 방법이다. 전역적 설명을 제공하므로, 특정 개별 예측을 설명하는 Local Surrogate(LIME, SHAP 등)와 구분해야 한다.
Global Surrogate는 모델 무관적으로 적용 가능하며, surrogate 모델로는 의사결정나무, 선형회귀, 규칙 기반 모델 등이 주로 사용된다.
Surrogate 모델의 성능 평가는 fidelity 개념을 사용하며, 이는 원래 모델과 surrogate 모델의 예측 일치도를 의미한다.
Surrogate 모델은 설명 목적에만 사용되며, 실제 운영에서 원래 모델을 대체하지 않는다.
시험에서는 ‘Global Surrogate가 운영에 사용된다’와 같은 오답 유도 문장이 자주 등장하므로 주의해야 한다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*