AI 트렌드: AI 윤리 – Transparency
ㅁ AI 윤리
ㅇ 정의:
AI 시스템의 의사결정 과정, 데이터 사용, 알고리즘 설계 등이 사용자와 이해관계자에게 명확히 공개되고 이해 가능하도록 하는 원칙.
ㅇ 특징:
– 모델의 입력, 처리, 출력 과정을 설명 가능하게 함.
– 데이터 출처와 처리 로직을 추적 가능하게 함.
– 블랙박스 문제를 완화하여 신뢰성 향상.
ㅇ 적합한 경우:
– 규제 준수가 필요한 금융, 의료, 공공 분야.
– 이해관계자 신뢰 확보가 중요한 프로젝트.
– AI 의사결정에 대한 책임 소재가 중요한 환경.
ㅇ 시험 함정:
– 투명성과 설명가능성(Explainability)을 동일시하는 오답 유도.
– 모든 알고리즘 세부 사항을 공개해야만 투명성이 확보된다고 착각하는 경우.
– 성능 최적화와 투명성 간의 균형 문제를 간과.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “AI 투명성은 데이터 출처와 처리 과정을 이해관계자가 확인할 수 있도록 하는 원칙이다.”
– X: “AI 투명성은 항상 소스코드 전체를 공개해야 달성된다.”
ㅁ 추가 학습 내용
투명성은 AI 윤리의 핵심 원칙으로, EU AI Act, OECD AI 원칙 등 국제 규범에서 강조된다.
투명성은 AI 시스템의 프로세스와 데이터 흐름을 공개하는 것을 의미한다.
설명가능성은 AI의 의사결정 이유를 사람이 이해할 수 있도록 설명하는 것을 의미한다.
투명성 확보를 위한 기술적 방법에는 모델 카드, 데이터 시트, 로그 기록, 감사 추적 등이 있다.
법적·규제적 요구사항으로는 GDPR의 설명받을 권리 등이 있다.
시험에서는 투명성을 단순히 ‘공개’로만 해석하거나, 모든 상황에서 무조건 적용 가능한 것으로 오해하게 하는 함정 문항이 자주 출제된다.