책임 있는 AI: AI Fairness
ㅁ 책임 있는 AI
ㅇ 정의: 책임 있는 AI는 AI 시스템의 개발 및 운영에서 윤리적, 법적, 사회적 책임을 강조하고, 투명성과 공정성을 보장하는 접근 방식을 의미한다.
ㅇ 특징: 데이터 편향 제거, 투명한 의사결정 과정, 이해관계자 참여, 지속 가능한 개발을 포함한다.
ㅇ 적합한 경우: AI의 사회적 영향이 큰 금융, 의료, 채용 등 민감한 분야에서 활용된다.
ㅇ 시험 함정: 책임 있는 AI를 단순히 모델의 성능 최적화로 오해하거나, 윤리적 고려를 기술적 문제로만 제한하는 경우가 있다.
ㅇ 시험 대비 “패턴 보기” 예시:
1. 책임 있는 AI는 데이터 편향 제거를 포함한다. (O)
2. 책임 있는 AI는 모델 성능만을 중시한다. (X)
================================
1. AI Fairness
ㅇ 정의: AI Fairness는 AI 시스템이 특정 집단이나 개인에 대해 편향적이지 않도록 설계되고 운영되는 것을 의미한다.
ㅇ 특징: 데이터 수집 과정에서의 편향 제거, 알고리즘 공정성 검증, 다양한 테스트 케이스 활용 등이 포함된다.
ㅇ 적합한 경우: 채용, 대출 심사, 보험료 산정 등 공정성이 중요한 의사결정 시스템에서 요구된다.
ㅇ 시험 함정: AI Fairness를 단순히 데이터의 양적 확보로 해결할 수 있다고 오해하는 경우가 있다.
ㅇ 시험 대비 “패턴 보기” 예시:
1. AI Fairness는 알고리즘 공정성 검증을 포함한다. (O)
2. AI Fairness는 데이터의 양이 많으면 자동으로 달성된다. (X)
ㅁ 추가 학습 내용
AI Fairness와 관련하여 학습해야 할 주요 개념은 다음과 같습니다.
1. **편향의 유형**:
– **표본 편향**: 데이터가 특정 집단을 과도하게 대표하거나 충분히 대표하지 못하는 경우 발생. 예를 들어, 얼굴 인식 AI가 특정 인종의 이미지만 포함된 데이터로 훈련되었다면 다른 인종에 대해 성능이 떨어질 수 있음.
– **측정 편향**: 데이터 수집 과정에서 측정 방법이 일관되지 않거나 부정확할 때 발생. 예를 들어, 건강 데이터를 수집할 때 일부 집단의 접근성이 제한된다면 해당 집단의 데이터가 왜곡될 가능성이 있음.
– **알고리즘적 편향**: 알고리즘 설계 또는 학습 과정에서 특정 집단에 대해 불공정한 결과를 초래하는 경우 발생. 예를 들어, 추천 시스템이 특정 성별을 선호하는 방식으로 작동한다면 알고리즘적 편향이 존재한다고 볼 수 있음.
2. **공정성 지표**:
– **Demographic Parity**: 모든 집단이 동일한 결과를 받을 확률을 가지는 것을 목표로 함. 예를 들어, 채용 AI에서 모든 인종이 동일한 비율로 채용될 확률을 가지도록 설계.
– **Equalized Odds**: 긍정적 결과와 부정적 결과에 대해 모든 집단이 동일한 정확도를 가지는 것을 목표로 함. 예를 들어, 의료 진단 AI에서 모든 성별이 동일한 정확도로 질병을 진단받도록 보장.
– **Predictive Parity**: 예측의 정확도가 모든 집단에서 동일하도록 보장. 예를 들어, 대출 승인 AI가 모든 인종에 대해 동일한 수준의 예측 정확도를 가지도록 설계.
시험 대비를 위해 위의 개념들에 대한 정의를 명확히 이해하고, 각각의 적용 사례를 구체적으로 학습하는 것이 중요합니다. 또한, 편향을 식별하고 공정성 지표를 활용하여 문제를 해결하는 방법에 대한 실질적인 접근법도 익혀야 합니다.