ㅁ RLOps 알고리즘/최적화 1. Proximal Policy Optimization(PPO) ㅇ 정의: – 강화학습에서 정책(Policy)을 안정적으로 업데이트하기 위해 제안된 on-policy 계열의 알고리즘으로, 정책 변화 폭을 제한하여 학습 안정성을 높인다. ㅇ 특징: – 정책 업데이트 시 KL divergence나 clipping 기법을 사용해 급격한 변화 방지 – 샘플 효율성은 낮지만 안정성이 높음 – Actor-Critic 구조와 함께 사용되는 경우가 많음 ㅇ 적합한
ㅁ NAS 메타러닝 주요 기법 ㅇ 정의: 신경망 구조를 자동으로 탐색하고 최적화하기 위해 메타러닝 관점에서 적용되는 핵심 구성 요소와 알고리즘 기법들의 집합. ㅇ 특징: – 탐색 공간, 탐색 전략, 성능 추정, 아키텍처 인코딩 등 모듈별로 구성됨 – GPU/TPU 등 하드웨어 제약 고려 가능 – 모델 학습과 탐색을 동시에 진행하거나 순차적으로 진행 ㅇ 적합한 경우: –
ㅁ 파이프라인 및 자동화 1. Experiment Tracking ㅇ 정의: – 머신러닝 실험의 파라미터, 데이터셋, 코드 버전, 결과 메트릭 등을 체계적으로 기록하고 관리하는 과정 또는 도구. ㅇ 특징: – 실험 재현성 보장. – 실험 비교 및 분석 용이. – 협업 시 실험 이력 공유 가능. ㅇ 적합한 경우: – 여러 하이퍼파라미터 조합을 테스트하는 프로젝트. – 장기간에
ㅁ 스케줄링/조기종료 ㅇ 정의: 모델 학습 과정에서 학습률 조절, 조기 종료, 배치 정규화 등을 통해 과적합 방지와 학습 효율성을 높이는 기법. ㅇ 특징: – 학습 중 손실 감소 추세나 검증 정확도 변화를 모니터링하여 학습 중단 또는 파라미터 조정. – 불필요한 연산을 줄이고 최적의 가중치 상태를 확보. ㅇ 적합한 경우: – 데이터셋이 작아 과적합 우려가 있는
ㅁ 네트워크 구조 1. Depthwise Separable Convolution ㅇ 정의: – 합성곱 연산을 Depthwise Convolution과 Pointwise Convolution(1×1 Conv)으로 분리하여 연산량을 줄이는 기법. ㅇ 특징: – 일반 합성곱 대비 파라미터 수와 FLOPs를 크게 절감. – MobileNet, Xception 등 경량 모델에서 주로 사용. – 채널별로 독립적인 필터 적용 후 채널 결합. ㅇ 적합한 경우: – 모바일/임베디드 환경에서 실시간
ㅁ 가중치 최적화 ㅇ 정의: 모델의 파라미터(가중치)를 효율적으로 조정하거나 감소시켜 연산량과 메모리 사용량을 줄이는 기술. ㅇ 특징: – 성능 유지 또는 최소 성능 저하를 목표로 함 – 학습 또는 학습 후 단계에서 적용 가능 – 경량화와 추론 속도 향상에 기여 ㅇ 적합한 경우: – 엣지 디바이스, 모바일 환경 – 실시간 추론이 필요한 응용 ㅇ 시험
ㅁ 모니터링/실행 1. Data Drift Detection ㅇ 정의: 데이터 분포가 시간에 따라 변화하여 모델 성능이 저하되는 현상을 감지하는 기법. ㅇ 특징: – 입력 데이터의 통계적 특성을 지속적으로 추적. – KS 검정, PSI, KL Divergence 등의 통계 기법 활용. – 비지도 방식으로 운영 환경에서 자동 감지 가능. ㅇ 적합한 경우: – 실시간 예측 시스템에서 데이터 특성이
ㅁ 배포 아키텍처 ㅇ 정의: ㅇ 특징: ㅇ 적합한 경우: ㅇ 시험 함정: ㅇ 시험 대비 “패턴 보기” 예시: ================================ 1. Model-in-service ㅇ 정의: – 모델을 애플리케이션 코드 내부에 직접 포함하여 배포하는 방식으로, 모델 로직과 서비스 로직이 동일한 프로세스에서 실행됨. ㅇ 특징: – 배포 단순, 외부 호출 지연 없음. – 모델 업데이트 시 애플리케이션 전체
ㅁ 설명가능 인공지능(XAI) 핵심기법 1. Global Surrogate ㅇ 정의: – 복잡한 블랙박스 모델의 전체 동작을 근사하는 해석 가능한 대체 모델(예: 의사결정나무)을 학습하여 설명하는 방법. ㅇ 특징: – 전체 데이터셋 기반으로 전역적 설명 제공. – 설명 모델은 원본 모델보다 단순. ㅇ 적합한 경우: – 모델 전반의 의사결정 구조를 이해하고자 할 때. – 규제 준수나 경영진 보고용.
ㅁ PEFT/Fine-tuning 초기화/설정 1. A 행렬 ㅇ 정의: – LoRA(Low-Rank Adaptation)에서 저차원 근사화를 위해 사용되는 가중치 행렬 중 하나로, 입력 특성을 저차원 잠재 공간으로 투영하는 역할. ㅇ 특징: – 초기값은 일반적으로 정규분포 또는 Xavier 초기화 사용. – 학습 시 B 행렬과 함께 곱해져 원래 가중치 변화량을 구성. ㅇ 적합한 경우: – 대규모 언어모델 파라미터 효율적