트렌드: AI 및 사회 – AI Safety

ㅁ AI 및 사회

ㅇ 정의:
인공지능(AI)이 사회에 미치는 부정적 영향을 최소화하고, 안전하고 신뢰할 수 있는 AI 시스템을 개발·운영하기 위한 개념과 접근 방법.

ㅇ 특징:
– 기술적 안전성(오작동 방지, 예측 가능성 확보)과 사회적 안전성(윤리, 법규 준수)을 모두 포함
– 데이터 편향, 설명 가능성, AI 의사결정의 투명성 등 다양한 요소를 포괄
– 국제 표준화 기구(ISO/IEC, IEEE 등)와 각국 정부의 규제 가이드라인과 연계

ㅇ 적합한 경우:
– 자율주행, 의료진단, 금융거래 등 사람의 생명과 재산에 직접적인 영향을 미치는 AI 시스템 개발 시
– 대규모 언어모델(LLM)과 같이 사회적 파급력이 큰 AI 서비스 운영 시

ㅇ 시험 함정:
– AI 윤리와 AI Safety를 혼동하는 경우가 많음 (윤리는 가치판단 중심, Safety는 위험 최소화 중심)
– 단순한 보안(Security) 개념과 혼동하여 물리적 해킹 방지만을 Safety로 오해

ㅇ 시험 대비 “패턴 보기” 예시:
O: AI Safety는 기술적·사회적 위험을 모두 고려한다.
X: AI Safety는 데이터 보안 문제만 다룬다.

ㅁ 추가 학습 내용

AI Safety는 기술적 차원과 사회·윤리적 차원을 모두 포함한다. 시험에서는 AI 윤리(Ethics)와 AI 안전(Safety)의 차이를 구분하는 문제가 자주 출제된다.
AI Safety는 시스템의 오작동 방지, 예측 가능성 확보, 위험 완화에 초점을 둔다.
AI Ethics는 가치 판단과 사회적 수용성에 초점을 둔다.

AI Safety의 주요 개념
– Value Alignment(가치 정렬): AI의 목표와 행동이 인간의 가치와 일치하도록 설계
– Fail-safe 설계: 시스템 오류나 비정상 상황에서도 안전하게 동작을 멈추거나 피해를 최소화하는 설계
– Robustness(강건성): 예측 불가능한 입력이나 환경 변화에도 안정적으로 작동하는 능력
– Human-in-the-loop(인간 개입): 중요한 의사결정 과정에 인간이 개입하여 위험을 통제하는 방식

시험 유의사항
– AI Safety를 AI 보안(Security)과 동일시하는 오답이 자주 등장하므로, 보안은 Safety의 일부 요소일 뿐이라는 점을 기억해야 한다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*