AI: 편향 및 공정성 – Proxy Bias
ㅁ 편향 및 공정성
1. Proxy Bias
ㅇ 정의:
실제로는 사용하지 않으려는 민감 속성(예: 성별, 인종 등)과 높은 상관관계를 가지는 다른 변수를 사용함으로써, 의도치 않게 민감 속성이 모델에 반영되는 편향 현상.
ㅇ 특징:
– 민감 속성을 직접 제거하더라도, 대리 변수(Proxy)가 존재하면 동일한 차별 효과가 나타날 수 있음.
– 데이터 수집 과정에서 은연중에 포함된 변수들이 문제를 유발.
– 탐지하기 어렵고, 모델 해석 과정에서만 드러나는 경우가 많음.
ㅇ 적합한 경우:
– 해당 개념은 특정 상황에 ‘적합하다’기보다, 모델 설계 시 반드시 피해야 하는 경우에 해당.
– 민감 속성을 직접 사용하지 않더라도, 관련 변수를 포함할 때 주의가 필요.
ㅇ 시험 함정:
– ‘민감 속성을 제거하면 Proxy Bias가 사라진다’ → X (대리 변수가 여전히 존재할 수 있음)
– ‘Proxy Bias는 데이터 수집 단계에서만 발생한다’ → X (특징 선택, 전처리 과정에서도 발생 가능)
ㅇ 시험 대비 “패턴 보기” 예시:
– “연령을 제거했지만 우편번호를 사용하여 동일한 연령대 패턴이 반영되었다” → O
– “성별을 제거하면 성별 관련 편향이 완전히 사라진다” → X
– “Proxy Bias는 모델 해석을 통해 발견할 수 있다” → O
ㅁ 추가 학습 내용
Proxy Bias 학습 정리
1. Proxy 변수 식별 기법
– 상관계수 분석: 변수와 민감 속성 간 상관계수를 계산하여 높은 상관성을 보이는 변수 식별
– Mutual Information: 변수와 민감 속성 간의 정보 이득을 측정하여 간접적인 연관성 파악
– SHAP/Permutation Feature Importance: 모델 예측에 대한 각 변수의 기여도를 분석하여 민감 속성과 연관된 변수 확인
2. 완화(Mitigation) 방법
– 변수 선택 시 민감 속성과의 상관성 필터링: 높은 상관성을 가진 변수 제거 또는 변환
– 공정성 제약(Fairness Constraints) 적용: 모델 학습 시 특정 민감 속성에 따른 예측 차이를 최소화하는 제약 조건 부여
– 적대적 학습(Adversarial Debiasing): 민감 속성을 예측할 수 없도록 모델을 학습시키는 기법
3. 실제 사례
– 미국 COMPAS 재범 예측 모델에서 우편번호가 인종과 높은 상관성을 가져 인종 차별적 결과를 유발한 사례
4. 법적/윤리적 고려
– Proxy Bias가 차별로 인정될 경우 법적 제재 가능성 존재
– 기업의 사회적 책임 차원에서 Proxy Bias 방지 노력 필요
5. 데이터 전처리 단계에서의 주의
– One-hot encoding, Feature scaling 과정에서 변수 간 상관성이 강화되어 Proxy 관계가 심화될 수 있음
– 전처리 단계에서도 민감 속성과의 간접적 연관성 점검 필요