불확실성 추정: Ensemble 불확실성

ㅁ 불확실성 추정 ㅇ 정의: 모델이 예측한 결과의 신뢰도를 정량적으로 평가하는 방법. ㅇ 특징: – 데이터의 불균형이나 노이즈가 많을 때 유용. – 모델의 성능을 보완하고, 예측의 신뢰성을 높이는 데 기여. – 주로 베이지안 모델링, 앙상블 학습 등에서 활용됨. ㅇ 적합한 경우: – 의료 진단, 자율 주행 등 높은 신뢰도가 요구되는 분야. – 예측 결과를 기반으로

불확실성 추정: Dropout 기반 추정

ㅁ 불확실성 추정 ㅇ 정의: 불확실성 추정은 모델이 예측한 결과의 신뢰도를 평가하는 기법으로, 데이터의 다양성과 모델의 일반화 능력을 분석하는 데 사용됨. ㅇ 특징: 모델의 예측 결과에 대한 신뢰도를 수치화하여 표현하며, 이를 통해 모델의 약점을 파악하고 개선 방향을 설정할 수 있음. ㅇ 적합한 경우: 의료 진단, 금융 예측 등 높은 신뢰도가 요구되는 분야에서 활용됨. ㅇ 시험

불확실성 추정: Bayesian Neural Network

ㅁ 불확실성 추정 ㅇ 정의: 모델의 예측 결과에 대한 신뢰도를 정량적으로 평가하는 과정. ㅇ 특징: – 데이터 샘플의 다양성과 모델의 예측 안정성을 확인할 수 있음. – 의료, 금융 등 높은 신뢰도가 요구되는 분야에서 중요. ㅇ 적합한 경우: – 모델이 새로운 데이터에 대해 예측을 수행할 때 신뢰도를 평가해야 하는 경우. – 데이터 불균형이나 소량의 데이터로 학습된

책임 있는 AI: Model Governance

ㅁ 책임 있는 AI ㅇ 정의: 책임 있는 AI는 AI 시스템이 공정하고, 투명하며, 윤리적으로 설계되고 운영되도록 보장하는 개념이다. 이는 신뢰할 수 있는 AI 개발 및 운영을 목표로 한다. ㅇ 특징: – 공정성, 투명성, 책임성을 강조. – 윤리적 기준 및 규정 준수 필요. – 사용자 및 이해관계자 신뢰 확보. – 데이터의 편향성 제거 및 결과 해석

책임 있는 AI: AI Fairness

ㅁ 책임 있는 AI ㅇ 정의: 책임 있는 AI는 AI 시스템의 개발 및 운영에서 윤리적, 법적, 사회적 책임을 강조하고, 투명성과 공정성을 보장하는 접근 방식을 의미한다. ㅇ 특징: 데이터 편향 제거, 투명한 의사결정 과정, 이해관계자 참여, 지속 가능한 개발을 포함한다. ㅇ 적합한 경우: AI의 사회적 영향이 큰 금융, 의료, 채용 등 민감한 분야에서 활용된다. ㅇ 시험

에너지 기반 모델: Diffusion

ㅁ 에너지 기반 모델 ㅇ 정의: 에너지 기반 모델은 데이터의 분포를 에너지 함수로 표현하여, 낮은 에너지를 가지는 데이터가 높은 확률로 나타나도록 학습하는 모델입니다. ㅇ 특징: – 확률 밀도 함수를 명시적으로 정의하지 않고도 확률 기반의 추론이 가능합니다. – 에너지 함수의 최소화를 통해 최적의 상태를 찾습니다. – 다양한 데이터 유형에 적용 가능하며, 특히 이미지 생성 및 이상

에너지 기반 모델: Score-based Model

ㅁ 에너지 기반 모델 ㅇ 정의: – 데이터의 확률 분포를 에너지 함수로 표현하여 최적화하는 모델. ㅇ 특징: – 확률 밀도를 명시적으로 계산하지 않고도 샘플 생성 가능. – 비정형 데이터에 적용 가능하며, 모델의 유연성이 높음. ㅇ 적합한 경우: – 이미지 생성, 이상 탐지와 같은 데이터 분포 학습이 필요한 경우. ㅇ 시험 함정: – 에너지 기반 모델과

에너지 기반 모델: RBM

ㅁ 에너지 기반 모델 ㅇ 정의: 에너지 기반 모델은 데이터의 분포를 에너지 함수로 표현하여 최적화를 통해 학습하는 모델이다. ㅇ 특징: – 데이터의 확률 분포를 직접적으로 계산하지 않고 에너지 함수로 나타냄. – 최적화 과정에서 에너지 값을 최소화하는 방향으로 학습. – 샘플링 과정이 필요하며, 계산 비용이 높을 수 있음. ㅇ 적합한 경우: – 복잡한 데이터 분포를 모델링해야

에너지 기반 모델: Boltzmann Machine

ㅁ 에너지 기반 모델 ㅇ 정의: 에너지 기반 모델은 데이터 포인트 간 상호작용을 에너지 함수로 표현하여 확률 분포를 학습하는 기계 학습 모델이다. ㅇ 특징: – 에너지 함수로 데이터의 구조를 모델링. – 확률 분포를 명시적으로 계산하지 않고도 학습 가능. – 샘플링 기반 학습 방법이 주로 사용됨. ㅇ 적합한 경우: – 데이터 간 상호 작용을 모델링해야 할

강화학습: PPO

ㅁ 강화학습 ㅇ 정의: 강화학습은 에이전트가 환경과 상호작용하며 보상을 최대화하는 행동을 학습하는 기계학습 방법이다. ㅇ 특징: – 환경과의 상호작용을 통해 데이터 수집. – 보상을 기반으로 정책을 업데이트함. – 탐색(exploration)과 활용(exploitation) 간의 균형이 중요. ㅇ 적합한 경우: – 명확한 목표와 보상 체계가 정의된 문제. – 환경이 동적이거나 복잡한 경우. – 시뮬레이션이 가능한 환경. ㅇ 시험 함정: