AI 모델 개발: 책임 있는 AI
ㅁ 책임 있는 AI
ㅇ 정의:
인공지능 시스템이 공정성, 투명성, 안전성, 책임성을 갖추도록 설계·운영하는 접근 방식.
ㅇ 특징:
– 윤리적 원칙과 법규 준수를 목표로 함
– 데이터 수집부터 모델 배포까지 전 과정 관리
– 이해관계자의 신뢰 확보를 중시
ㅇ 적합한 경우:
– 금융, 의료, 공공 분야 등 사회적 영향이 큰 AI 적용 시
– 규제 준수가 필수적인 산업
ㅇ 시험 함정:
– ‘책임 있는 AI’를 단순히 성능 최적화 개념으로 오인하는 경우
– 공정성만 강조하고 투명성·안전성을 간과하는 경우
ㅇ 시험 대비 “패턴 보기” 예시:
O: “책임 있는 AI는 데이터 수집부터 배포까지 전 과정에서 윤리적 원칙을 반영한다.”
X: “책임 있는 AI는 모델 정확도 향상만을 목표로 한다.”
================================
1. AI Fairness
ㅇ 정의:
AI 시스템이 인종, 성별, 연령 등 보호 대상 속성에 따라 차별 없이 일관된 결과를 제공하는 특성.
ㅇ 특징:
– 데이터 편향 제거 및 알고리즘적 편향 최소화
– 그룹 간 예측 성능 균형 유지
– 법적·윤리적 기준과 연계
ㅇ 적합한 경우:
– 채용, 대출 심사, 형사 판결 등에서 AI 활용 시
ㅇ 시험 함정:
– ‘공정성’을 단순히 모델 정확도와 동일시하는 경우
– 모든 집단에 동일한 결과를 주는 것이 항상 공정한 것으로 오해
ㅇ 시험 대비 “패턴 보기” 예시:
O: “AI 공정성은 사회적 편향을 최소화하는 것을 목표로 한다.”
X: “AI 공정성은 모든 집단에 동일한 결과를 제공하는 것과 같다.”
================================
2. Bias Detection
ㅇ 정의:
데이터나 모델 예측에서 발생하는 편향을 식별하고 분석하는 과정.
ㅇ 특징:
– 통계적 지표(Disparate Impact, Statistical Parity 등) 활용
– 데이터 전처리, 모델 출력 분석, 사후 검증 단계에서 수행 가능
ㅇ 적합한 경우:
– 모델 개발 초기 및 운영 중 편향 여부를 점검할 때
ㅇ 시험 함정:
– 편향 검출을 편향 제거와 동일시하는 경우
– 단일 지표만으로 편향 여부를 판단하는 경우
ㅇ 시험 대비 “패턴 보기” 예시:
O: “Bias Detection은 AI 모델의 예측 결과에서 차별적 패턴을 찾아낸다.”
X: “Bias Detection은 편향을 제거하는 기법이다.”
================================
3. Explainability Auditing
ㅇ 정의:
AI 모델의 예측 과정과 결과를 이해 가능하게 만들기 위해 설명 가능성 수준을 점검·검증하는 절차.
ㅇ 특징:
– LIME, SHAP 등 설명 기법의 적절성 평가
– 이해관계자별 설명 수준 차별화 검토
– 규제 준수 목적의 보고서 작성 포함
ㅇ 적합한 경우:
– 규제 기관 보고, 고객 불만 처리, 모델 신뢰성 검증 필요 시
ㅇ 시험 함정:
– 설명 가능성 점검을 단순 시각화 제공과 동일시하는 경우
– 모델 정확도가 높으면 설명 가능성 검토가 불필요하다고 생각하는 경우
ㅇ 시험 대비 “패턴 보기” 예시:
O: “Explainability Auditing은 설명 기법의 적절성을 평가하는 절차를 포함한다.”
X: “Explainability Auditing은 모델 성능 향상 기법이다.”
================================
4. Model Governance
ㅇ 정의:
AI 모델의 개발, 배포, 운영 전 과정에서 정책·절차·통제를 적용하여 리스크를 관리하는 체계.
ㅇ 특징:
– 모델 등록, 변경 관리, 성능 모니터링 포함
– 규제 준수 및 감사 대응 가능
– 책임 소재 명확화
ㅇ 적합한 경우:
– 대규모 AI 서비스 운영 기업
– 규제 산업 및 고위험 AI 적용 분야
ㅇ 시험 함정:
– 모델 거버넌스를 단순한 문서화 작업으로 오해
– 기술적 모니터링만 포함한다고 생각하는 경우
ㅇ 시험 대비 “패턴 보기” 예시:
O: “Model Governance는 AI 모델의 전 생애주기 관리 체계이다.”
X: “Model Governance는 모델 성능 최적화 기법이다.”
ㅁ 추가 학습 내용
학습 정리 내용
Fairness Metrics
– Equal Opportunity: 긍정 클래스에 대해 집단 간 참양성률(True Positive Rate)이 동일하도록 하는 지표.
– Equalized Odds: 참양성률과 거짓양성률(False Positive Rate) 모두 집단 간 동일하게 맞추는 지표.
– Predictive Parity: 예측이 긍정일 때 실제로 긍정일 확률(정밀도, Precision)이 집단 간 동일하도록 하는 지표.
– 적용 상황: 데이터 불균형, 사회적 편향 존재 시 모델의 공정성 평가에 활용.
Bias Mitigation Techniques
– 데이터 전처리: 리샘플링(과·소표본추출), 리웨이팅(가중치 부여) 등으로 학습 데이터의 편향 완화.
– 알고리즘 수정: 학습 과정에서 제약조건 추가, 손실함수 수정 등을 통해 편향 감소.
– 사후 보정: 모델 출력 결과를 재조정하여 공정성 기준에 맞춤.
Explainability Tools
– LIME: 국소적 선형 모델로 개별 예측 설명, 직관적이나 복잡 모델에서는 근사 한계 존재.
– SHAP: 게임이론 기반 특성 기여도 산출, 일관성 높으나 계산량 큼.
– Counterfactual Explanation: 결과를 바꾸기 위해 필요한 최소한의 입력 변경 제시, 해석 직관적이나 현실 적용 가능성 제한.
Model Risk Management Framework
– SR 11-7: 미국 연준의 모델 리스크 관리 지침, 모델 검증·거버넌스·문서화 요구.
– NIST AI Risk Management Framework: AI 시스템의 위험 식별, 평가, 관리 절차 제시.
관련 규제
– EU AI Act: 위험 기반 AI 규제, 고위험 시스템에 대한 엄격한 요건 부과.
– GDPR 자동화 의사결정 조항: 자동화된 결정에 대한 설명권, 거부권 보장.
– 국내 개인정보보호법: 개인정보 처리 및 자동화 의사결정 관련 보호 규정 포함.
AI 책임성 확보를 위한 조직 운영
– AI 윤리위원회: 윤리 원칙 수립, 프로젝트 심의.
– 독립 감사: 외부 또는 별도 조직에 의한 모델 및 절차 검증.
– 외부 검증 절차: 제3자 기관을 통한 성능·공정성·안전성 평가.
모델 모니터링 지표
– Drift Detection: 데이터 분포 변화 감지.
– Concept Drift: 입력-출력 간 관계 변화 감지.
– Data Quality Monitoring: 결측치, 이상치, 데이터 일관성 등 품질 관리.