Pruning/Quant: Unstructured Pruning

ㅁ Pruning/Quant ㅇ 정의: Pruning/Quant는 모델 경량화를 위한 기술로, 딥러닝 모델의 불필요한 가중치를 제거하거나 숫자 표현 방식을 변경하여 메모리와 계산 효율을 개선하는 방법을 포함한다. ㅇ 특징: 모델의 성능 저하를 최소화하면서 계산 복잡도를 줄이는 데 중점을 둔다. Pruning은 가중치 제거, Quant는 숫자 표현 방식 변경을 포함한다. ㅇ 적합한 경우: 모바일 및 임베디드 환경에서 메모리와 계산 자원이

Pruning/Quant: Post-Training Quantization

ㅁ Pruning/Quant ㅇ 정의: 모델의 크기를 줄이고 실행 속도를 개선하기 위해 파라미터를 삭제하거나 데이터 표현을 줄이는 기술. ㅇ 특징: – Pruning은 모델에서 중요하지 않은 연결을 제거하여 경량화. – Quantization은 데이터 표현을 낮은 비트로 변환하여 메모리 사용을 감소. – 모델 성능 저하를 최소화하는 것이 핵심. ㅇ 적합한 경우: – 리소스 제한적인 환경에서의 모델 배포. – 모바일

PEFT/강화: Speculative Decoding

ㅁ PEFT/강화 ㅇ 정의: PEFT(Parameterized Efficient Fine-Tuning)는 사전 학습된 모델을 효율적으로 튜닝하는 방법이며, 강화 학습은 모델의 성능을 정렬하거나 개선하는 데 사용된다. ㅇ 특징: – PEFT는 모델의 일부 파라미터만 조정하여 효율성을 높임. – 강화 학습은 보상 신호를 통해 모델의 행동을 개선함. ㅇ 적합한 경우: – 자원 제한 환경에서 대규모 모델을 튜닝할 때. – 특정 작업에 대한

PEFT/강화: QLoRA

ㅁ PEFT/강화 ㅇ 정의: – PEFT(Parametric Efficient Fine-Tuning)는 사전 학습된 언어 모델을 효율적으로 미세 조정하기 위한 기법이며, 강화 학습은 모델의 성능을 특정 목표에 맞게 최적화하는 방법을 의미함. ㅇ 특징: – PEFT는 대규모 모델의 모든 파라미터를 업데이트하지 않고 일부 파라미터만 조정하여 효율성을 극대화함. – 강화 학습은 보상 신호를 기반으로 모델이 학습하며, 주로 행동의 최적화를 목표로 함.

PEFT/강화: RLAIF

ㅁ PEFT/강화 ㅇ 정의: 특정 목적에 맞게 사전 학습된 언어 모델을 미세 조정하거나 강화 학습을 통해 성능을 최적화하는 방법론. ㅇ 특징: – 기존 모델의 성능을 유지하면서 특정 태스크에 적합한 성능을 강화. – 추가적인 데이터나 도메인 지식을 활용하여 모델을 개선. ㅇ 적합한 경우: – 특정 도메인에서의 성능 최적화가 필요한 경우. – 기존 모델의 전반적인 성능은 유지하며

PEFT/강화: DPO

ㅁ PEFT/강화 ㅇ 정의: PEFT(Prompt-Efficient Fine-Tuning)와 강화 학습을 활용하여 사전 학습된 언어 모델을 특정 작업에 적합하도록 조정하는 기술. ㅇ 특징: – PEFT는 적은 데이터로도 모델 성능을 극대화할 수 있도록 설계됨. – 강화 학습은 보상 신호를 기반으로 최적의 정책을 학습함. – 두 접근법 모두 모델의 효율성과 성능을 동시에 고려함. ㅇ 적합한 경우: – 데이터가 제한적이거나 특정

IR/Vector: ColBERT

ㅁ IR/Vector ㅇ 정의: 정보 검색(Information Retrieval)에서 문서와 쿼리를 벡터 공간으로 표현하여 유사도를 계산하는 방법론. ㅇ 특징: – 벡터 공간 모델을 기반으로 하며, 문서와 쿼리를 고차원 벡터로 변환. – 단순 TF-IDF 방식부터 딥러닝 기반 임베딩까지 다양한 방법론 포함. – 검색 속도와 정확도 간의 균형이 중요. ㅇ 적합한 경우: – 대규모 문서 집합에서 유사한 문서를 빠르게

IR/Vector: MMR

ㅁ IR/Vector ㅇ 정의: 정보 검색(Information Retrieval)에서 벡터 공간 모델을 활용하여 문서와 쿼리 간의 유사도를 계산하고, 관련 문서를 검색하는 기법. ㅇ 특징: – 문서와 쿼리를 벡터로 표현하여 코사인 유사도 등을 통해 유사성을 계산. – 텍스트 데이터의 구조를 벡터화하여 수학적 계산이 가능. – 대규모 데이터셋에서 효율적으로 작동. ㅇ 적합한 경우: – 텍스트 기반 데이터 검색이 필요한

DP/연합/XAI: DP-SGD

ㅁ DP/연합/XAI ㅇ 정의: ㅇ 특징: ㅇ 적합한 경우: ㅇ 시험 함정: ㅇ 시험 대비 “패턴 보기” 예시: ================================ 1. DP-SGD ㅇ 정의: DP-SGD(Differentially Private Stochastic Gradient Descent)는 딥러닝 모델 학습 과정에서 데이터 프라이버시를 보호하기 위해 미분 가능 프라이버시(Differential Privacy) 원칙을 적용한 SGD 알고리즘이다. ㅇ 특징: – 노이즈 추가: 각 업데이트 단계에서 그래디언트에 노이즈를 추가하여

시계열: Seasonal Decompose

ㅁ 시계열 ㅇ 정의: ㅇ 특징: ㅇ 적합한 경우: ㅇ 시험 함정: ㅇ 시험 대비 “패턴 보기” 예시: ================================ 1. Seasonal Decompose ㅇ 정의: 시계열 데이터를 구성 요소(추세, 계절성, 불규칙성)로 분해하는 기법으로 데이터의 패턴을 명확히 파악할 수 있도록 도움. ㅇ 특징: – 데이터의 주기성을 분석하고 계절적 변동을 제거하거나 강조할 수 있음. – Additive(가법) 또는 Multiplicative(승법)