트랜드: 최신 연구 주제
ㅁ 최신 연구 주제
1. Foundation Models
ㅇ 정의:
대규모 데이터셋으로 사전 학습(pretraining)되어 다양한 다운스트림 작업에 적응(finetuning)할 수 있는 범용 인공지능 모델.
ㅇ 특징:
– 수십억~수천억 개 파라미터 규모
– 다양한 모달리티(텍스트, 이미지, 오디오 등) 처리 가능
– 전이학습(Transfer Learning) 효율 극대화
ㅇ 적합한 경우:
– 데이터 라벨링이 제한된 환경에서 다양한 태스크 수행
– 범용 AI 서비스 개발
ㅇ 시험 함정:
– Foundation Models = 특정 도메인 전용 모델(X)
– 사전 학습 데이터가 적어도 동작 가능(O) → 그러나 성능 저하 가능
ㅇ 시험 대비 “패턴 보기” 예시:
– “Foundation Models는 특정 태스크에만 사용된다” → X
– “Foundation Models는 다양한 태스크로 전이학습이 가능하다” → O
2. Large Scale Pretraining
ㅇ 정의:
대규모 데이터셋과 연산 자원을 활용하여 모델을 사전 학습시키는 기법.
ㅇ 특징:
– 수주~수개월의 학습 시간
– 분산 학습 인프라 필요
– 데이터 품질과 다양성이 성능에 직접 영향
ㅇ 적합한 경우:
– 범용 모델 개발
– 희귀 태스크에 대한 성능 확보를 위한 기반 학습
ㅇ 시험 함정:
– 대규모 데이터만 있으면 성능 보장(O) → 데이터 품질이 낮으면 성능 저하
– Pretraining은 항상 지도학습 기반이다(X) → 비지도/자기지도 가능
ㅇ 시험 대비 “패턴 보기” 예시:
– “Large Scale Pretraining은 데이터 품질과 다양성이 중요하다” → O
– “Large Scale Pretraining은 지도학습만 가능하다” → X
3. Model Compression
ㅇ 정의:
모델의 크기와 연산량을 줄이면서도 성능 저하를 최소화하는 기술.
ㅇ 특징:
– 경량화로 인한 배포 용이성
– 추론 속도 향상
– 모바일/엣지 디바이스에 적합
ㅇ 적합한 경우:
– 리소스 제한 환경에서 모델 배포
– 실시간 응답이 필요한 서비스
ㅇ 시험 함정:
– Model Compression은 항상 성능을 유지한다(X) → 일부 정확도 손실 가능
– Compression 기법에는 프루닝, 양자화, 지식 증류 등이 있다(O)
ㅇ 시험 대비 “패턴 보기” 예시:
– “Model Compression은 모바일 환경에서 유리하다” → O
– “Model Compression은 성능 손실이 전혀 없다” → X
4. Explainable AI (XAI)
ㅇ 정의:
인공지능 모델의 의사결정 과정을 사람에게 이해할 수 있는 형태로 설명하는 기술.
ㅇ 특징:
– 규제 준수 및 신뢰성 확보 필수 요소
– 블랙박스 모델의 해석 가능성 향상
– 시각화, 규칙 기반 설명, 국소적 설명 기법 사용
ㅇ 적합한 경우:
– 의료, 금융 등 고위험 분야
– 모델의 의사결정 근거를 제시해야 하는 서비스
ㅇ 시험 함정:
– XAI는 모델 성능 향상 기술이다(X) → 주 목적은 해석 가능성
– 모든 모델에 동일한 XAI 기법 적용 가능(X) → 모델 특성에 따라 다름
ㅇ 시험 대비 “패턴 보기” 예시:
– “XAI는 의사결정 근거를 제공한다” → O
– “XAI는 모든 모델에 동일하게 적용된다” → X
ㅁ 추가 학습 내용
정리
Foundation Models와 Large Scale Pretraining은 대규모 데이터 학습 과정에서 데이터 편향 문제와 윤리적 이슈를 반드시 고려해야 한다. 시험에서는 특히 데이터 다양성 확보 방안과 편향 완화 기법이 빈출 주제다.
Model Compression에서는 프루닝(pruning), 양자화(quantization), 지식 증류(knowledge distillation)의 정의, 동작 원리, 장점과 단점을 비교할 수 있어야 한다.
Explainable AI(XAI)에서는 LIME, SHAP, Grad-CAM 등 대표 기법의 특징과 적용 가능한 모델 유형을 구분할 수 있어야 하며, 규제 측면에서 EU AI Act, GDPR의 설명 가능성 요구사항과의 연계 이해가 필요하다.
시험 대비 체크리스트
1. Foundation Models와 Large Scale Pretraining의 데이터 편향 원인과 유형을 설명할 수 있는가
2. 데이터 다양성 확보 방법(데이터 수집, 전처리, 증강 등)을 구체적으로 제시할 수 있는가
3. 편향 완화 기법(재표본추출, 가중치 조정, 후처리 등)을 구분하고 사례를 설명할 수 있는가
4. 프루닝, 양자화, 지식 증류의 정의와 원리를 알고 있는가
5. 각 Model Compression 기법의 장점과 단점을 비교 설명할 수 있는가
6. LIME, SHAP, Grad-CAM의 작동 방식과 적용 가능한 모델 유형(CNN, 트리 기반 모델 등)을 구분할 수 있는가
7. EU AI Act의 설명 가능성 요구사항 주요 내용을 이해하고 있는가
8. GDPR에서의 설명 가능성 요구 조항과 AI 모델 해석성의 연관성을 설명할 수 있는가