AI 트렌드: 주요 과제
ㅁ 주요 과제
1. AI 투명성
ㅇ 정의:
– AI 시스템의 의사결정 과정, 데이터 사용 방식, 모델 구조 등을 이해 가능하게 공개하는 것.
ㅇ 특징:
– 데이터 출처, 알고리즘 로직, 모델 성능 지표 등을 문서화.
– 이해관계자가 결과를 해석할 수 있도록 정보 제공.
ㅇ 적합한 경우:
– 금융, 의료 등 규제 산업에서 신뢰 확보 필요 시.
– 정부·공공기관의 AI 활용 시.
ㅇ 시험 함정:
– “투명성 = 모든 소스코드 공개”는 오답. 핵심은 의사결정 이해 가능성.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “AI 시스템의 결과를 이해할 수 있도록 데이터와 모델 정보를 제공하는 것은 투명성 확보의 예이다.”
– X: “AI 투명성은 반드시 전체 알고리즘 코드를 공개해야 한다.”
2. Fairness Audit
ㅇ 정의:
– AI 시스템이 특정 집단에 불공정한 영향을 주는지 점검하는 절차.
ㅇ 특징:
– 성별, 인종, 연령 등 보호 대상 속성별 성능 비교.
– 정량 지표(정밀도, 재현율 등) 기반 평가.
ㅇ 적합한 경우:
– 채용, 대출 심사 등 사회적 영향이 큰 의사결정.
ㅇ 시험 함정:
– “공정성 검토는 모델 학습 후에는 불필요하다”는 것은 오답.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “채용 AI에서 성별별 합격률을 비교하는 것은 Fairness Audit의 예이다.”
– X: “Fairness Audit은 데이터 수집 단계에서만 수행된다.”
3. Bias Detection
ㅇ 정의:
– AI 모델이나 데이터셋에 존재하는 편향을 식별하는 과정.
ㅇ 특징:
– 데이터 불균형, 표본 편향, 알고리즘 편향 등 다양한 형태 존재.
– 통계 분석, 시각화, 테스트 케이스 활용.
ㅇ 적합한 경우:
– 모델 성능이 특정 그룹에서 현저히 낮을 때.
ㅇ 시험 함정:
– “편향은 데이터에만 존재한다”는 것은 오답. 알고리즘 설계에도 존재 가능.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “훈련 데이터의 특정 집단 비율이 과소 대표되는 것은 Bias Detection 대상이다.”
– X: “Bias Detection은 모델 배포 이후에는 불가능하다.”
4. Explainability Audit
ㅇ 정의:
– AI 시스템의 의사결정 이유를 설명 가능하게 만드는 절차를 검증하는 것.
ㅇ 특징:
– SHAP, LIME 등 설명 가능성 도구 활용.
– 사용자 친화적 설명 문구 제공 여부 점검.
ㅇ 적합한 경우:
– 사용자가 결과를 신뢰해야 하는 의료 진단, 법률 판결 지원.
ㅇ 시험 함정:
– “설명 가능성은 모델 정확도를 항상 낮춘다”는 것은 오답.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “모델 예측에 기여한 주요 변수와 그 영향도를 제시하는 것은 Explainability Audit의 예이다.”
– X: “Explainability Audit은 규제 기관에서만 필요하다.”
ㅁ 추가 학습 내용
AI 투명성과 Explainability는 유사한 개념이지만 차이가 있다. 투명성은 AI 시스템의 전반적인 운영 정보 공개를 포함하며, Explainability는 개별 의사결정의 이유를 설명하는 데 집중한다. Fairness Audit과 Bias Detection은 상호 보완적인 관계로, Bias Detection은 문제를 식별하는 단계이고 Fairness Audit은 이를 평가하고 개선하는 단계로 이해하면 혼동을 줄일 수 있다. 시험에서는 각 용어의 적용 시점, 대상, 방법론의 차이를 묻는 문제가 자주 출제된다. 또한 EU AI Act, GDPR의 설명권 등 실제 법규와의 연계성을 이해하면 고난도 문제 대비에 도움이 된다.