AI 트렌드: 주요 과제

ㅁ 주요 과제

1. AI 투명성

ㅇ 정의:
AI 시스템의 의사결정 과정, 데이터 사용, 알고리즘 구조 등을 이해 가능하게 공개하는 원칙과 절차.

ㅇ 특징:
모델 설계 문서, 데이터 출처, 처리 과정, 의사결정 로직을 명확히 기록 및 공유. 블랙박스 모델의 경우 시각화·설명 도구를 활용.

ㅇ 적합한 경우:
규제 산업(금융, 의료)이나 공공 서비스처럼 이해관계자가 결과 근거를 요구하는 환경.

ㅇ 시험 함정:
‘투명성’을 단순히 소스코드 공개로만 한정하는 오답 유도. 실제로는 과정·데이터·결과 해석 가능성까지 포함.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “AI 투명성은 데이터와 모델의 의사결정 과정을 이해 가능하게 하는 것을 포함한다.”
X: “AI 투명성은 반드시 모든 소스코드를 공개하는 것을 의미한다.”

================================

2. Fairness Audit

ㅇ 정의:
AI 시스템이 특정 집단이나 개인에게 차별적 영향을 미치지 않는지 평가하는 절차.

ㅇ 특징:
데이터셋 분포 분석, 결과 편향 측정, 집단별 성능 비교, 공정성 지표(FPR, TPR 등) 활용.

ㅇ 적합한 경우:
채용, 대출 심사, 범죄 예측 등 사회적 영향이 큰 의사결정 시스템.

ㅇ 시험 함정:
‘공정성 감사’를 단순히 데이터 품질 검사로 착각하는 경우. 실제로는 결과의 형평성까지 확인.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Fairness Audit은 AI 결과가 특정 집단에 불리하게 작용하는지 점검한다.”
X: “Fairness Audit은 데이터 입력 오류를 찾는 절차이다.”

================================

3. Bias Detection

ㅇ 정의:
AI 학습 데이터나 모델 결과에서 체계적 편향을 식별하는 과정.

ㅇ 특징:
통계 분석, 시각화, 샘플링 기법 등을 활용해 데이터 분포 불균형, 라벨 편향, 알고리즘 편향을 탐지.

ㅇ 적합한 경우:
대규모 데이터셋 구축, 모델 배포 전 검증 단계.

ㅇ 시험 함정:
편향 탐지를 편향 제거와 동일시하는 경우. 탐지는 문제 발견 단계이며, 제거는 후속 조치.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Bias Detection은 데이터나 모델 결과에서 편향을 찾아내는 것을 의미한다.”
X: “Bias Detection은 편향을 수정하는 절차이다.”

================================

4. Explainability Audit

ㅇ 정의:
AI 모델의 예측이나 의사결정 이유를 이해하고 설명 가능성을 검증하는 절차.

ㅇ 특징:
LIME, SHAP 등 설명 가능성 도구 활용, 모델별 중요 변수 분석, 사용자 친화적 설명 제공.

ㅇ 적합한 경우:
규제 준수, 고객 신뢰 확보, 모델 개선 필요성이 있는 프로젝트.

ㅇ 시험 함정:
설명 가능성 감사를 단순히 모델 성능 평가로 혼동하는 경우. 실제로는 ‘왜’라는 질문에 답하는 과정.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Explainability Audit은 모델의 결과 이유를 이해할 수 있는지를 검증한다.”
X: “Explainability Audit은 모델의 정확도를 측정하는 절차이다.”

ㅁ 추가 학습 내용

AI 투명성, 공정성, 편향 탐지, 설명가능성 감사 관련 정리

1. AI 투명성
– 모델 카드(Model Card): AI 모델의 목적, 성능, 한계, 사용 권장 사항 등을 문서화한 보고서
– 데이터 시트(Data Sheet for Datasets): 데이터셋의 수집 과정, 특성, 한계, 사용 시 주의사항 등을 기록한 문서

2. Fairness Audit(공정성 감사) 지표
– Equal Opportunity: 긍정 클래스에 대해 집단 간 참양성률(True Positive Rate)이 동일하도록 하는 기준
– Demographic Parity: 예측 결과의 긍정 비율이 집단 간 동일하도록 하는 기준
– Equalized Odds: 참양성률과 거짓양성률(False Positive Rate)이 모두 집단 간 동일하도록 하는 기준

3. Bias Detection(편향 탐지) 유형
– 샘플링 편향: 데이터 수집 과정에서 특정 집단이 과소 또는 과대 대표되는 경우
– 측정 편향: 데이터 측정 도구나 방법의 오류로 인해 발생하는 편향
– 알고리즘 편향: 모델 학습 과정이나 설계로 인해 발생하는 편향

4. Explainability Audit(설명가능성 감사) 기법
– LIME(Local Interpretable Model-agnostic Explanations): 개별 예측에 대한 국소적 선형 모델 기반 설명
– SHAP(SHapley Additive exPlanations): 게임이론 기반으로 각 특성의 기여도를 계산하는 방법
– Counterfactual Explanation: 예측 결과를 바꾸기 위해 입력값을 어떻게 변경해야 하는지 제시
– Partial Dependence Plot: 특정 특성이 예측 결과에 미치는 평균적 영향 시각화

5. 감사 절차
– 탐지 → 분석 → 개선 순서로 진행
– 실제 산업 적용 사례와 연결하여 이해하면 응용 문제 대비 가능

시험 대비 체크리스트
– 모델 카드와 데이터 시트의 정의와 목적을 구분할 수 있는가
– Equal Opportunity, Demographic Parity, Equalized Odds의 정의와 차이를 설명할 수 있는가
– 샘플링 편향, 측정 편향, 알고리즘 편향의 개념과 예시를 제시할 수 있는가
– LIME, SHAP, Counterfactual Explanation, Partial Dependence Plot의 특징과 차이점을 설명할 수 있는가
– 감사 절차의 순서를 정확히 기억하고 각 단계에서 수행하는 활동을 설명할 수 있는가
– 각 개념을 실제 산업 사례에 연결하여 설명할 수 있는가

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*