AI 윤리: AI 윤리 – 편향 감지
ㅁ AI 윤리
ㅇ 정의:
AI 시스템이 데이터, 알고리즘, 모델 설계 과정에서 특정 집단이나 개인에게 불리하게 작용하는 편향을 식별하고 측정하는 과정.
ㅇ 특징:
– 데이터셋의 불균형, 라벨링 과정의 주관성, 알고리즘 설계의 한계 등 다양한 원인으로 발생.
– 통계적 분석, 공정성 지표(Fairness Metrics) 등을 활용.
– 사전(pre-processing), 중간(in-processing), 사후(post-processing) 단계에서 모두 적용 가능.
ㅇ 적합한 경우:
– 채용, 대출 심사, 범죄 예측 등 사회적 영향이 큰 AI 의사결정 시스템.
– 공정성, 투명성이 중요한 서비스.
ㅇ 시험 함정:
– 편향 감지와 편향 제거를 혼동하는 경우.
– 데이터 편향과 알고리즘 편향을 동일시하는 경우.
– 단일 지표만으로 공정성을 판단하는 경우.
ㅇ 시험 대비 “패턴 보기” 예시:
– “편향 감지는 AI 시스템에서 발생한 불공정성을 완전히 제거하는 과정이다.” → X (감지는 식별 단계임)
– “편향 감지는 데이터 전처리 단계에서만 수행된다.” → X (모든 단계에서 가능)
– “편향 감지는 공정성 지표를 활용하여 수행될 수 있다.” → O
ㅁ 추가 학습 내용
편향 감지에서 중요한 공정성 지표
– Demographic Parity: 예측 결과가 집단 간에 동일한 비율로 나타나야 함
– Equal Opportunity: 실제 긍정인 경우에 집단 간 참양성률(True Positive Rate)이 동일해야 함
– Disparate Impact: 특정 집단에 불리한 결과가 나타나는 비율을 평가하며, 일반적으로 80% 규칙 사용
편향의 주요 유형과 특징
– 표본 편향: 데이터 수집 과정에서 특정 집단이 과소·과대 대표되는 경우 발생
– 측정 편향: 데이터 측정 또는 라벨링 과정에서 오류나 왜곡이 발생
– 알고리즘 편향: 학습 알고리즘이 특정 패턴을 과도하게 반영하여 불공정한 결과를 생성
– 사회적 편향: 사회 구조나 문화적 요인으로 인해 데이터 자체에 내재된 편향
각 편향 유형의 원인과 해결 방법
– 표본 편향: 데이터 수집 범위 확대, 표본 재가중치 적용
– 측정 편향: 측정 도구 개선, 라벨 검증 강화
– 알고리즘 편향: 모델 설계 변경, 공정성 제약 조건 적용
– 사회적 편향: 데이터 전처리로 편향 요소 제거, 사회적 맥락 고려한 분석
편향 감지 기법
– 통계 검정: 집단 간 지표 차이가 통계적으로 유의한지 검증
– 시각화: 분포, 혼동 행렬, ROC 곡선 등으로 집단별 성능 비교
– 모델 출력 비교: 집단별 예측 확률, 정확도, 오류율 비교
편향 완화 기법
– 데이터 전처리 단계: 재표본화, 데이터 변환, 라벨 수정
– 학습 단계: 공정성 제약 조건 추가, 가중치 조정
– 사후 처리 단계: 예측 결과 수정, 임계값 조정
편향 감지 도구와 활용 사례
– AIF360: IBM에서 개발한 오픈소스 라이브러리, 다양한 공정성 지표 계산 및 편향 완화 기능 제공
– Fairlearn: 마이크로소프트에서 개발한 공정성 평가 및 개선 도구, 시각화와 제약 조건 기반 모델 학습 지원