IR/Vector: MMR

ㅁ IR/Vector ㅇ 정의: 정보 검색(Information Retrieval)에서 벡터 공간 모델을 활용하여 문서와 쿼리 간의 유사도를 계산하고, 관련 문서를 검색하는 기법. ㅇ 특징: – 문서와 쿼리를 벡터로 표현하여 코사인 유사도 등을 통해 유사성을 계산. – 텍스트 데이터의 구조를 벡터화하여 수학적 계산이 가능. – 대규모 데이터셋에서 효율적으로 작동. ㅇ 적합한 경우: – 텍스트 기반 데이터 검색이 필요한

IR/Vector: ColBERT

ㅁ IR/Vector ㅇ 정의: 정보 검색(Information Retrieval)에서 문서와 쿼리를 벡터 공간으로 표현하여 유사도를 계산하는 방법론. ㅇ 특징: – 벡터 공간 모델을 기반으로 하며, 문서와 쿼리를 고차원 벡터로 변환. – 단순 TF-IDF 방식부터 딥러닝 기반 임베딩까지 다양한 방법론 포함. – 검색 속도와 정확도 간의 균형이 중요. ㅇ 적합한 경우: – 대규모 문서 집합에서 유사한 문서를 빠르게

PEFT/강화: DPO

ㅁ PEFT/강화 ㅇ 정의: PEFT(Prompt-Efficient Fine-Tuning)와 강화 학습을 활용하여 사전 학습된 언어 모델을 특정 작업에 적합하도록 조정하는 기술. ㅇ 특징: – PEFT는 적은 데이터로도 모델 성능을 극대화할 수 있도록 설계됨. – 강화 학습은 보상 신호를 기반으로 최적의 정책을 학습함. – 두 접근법 모두 모델의 효율성과 성능을 동시에 고려함. ㅇ 적합한 경우: – 데이터가 제한적이거나 특정

PEFT/강화: RLAIF

ㅁ PEFT/강화 ㅇ 정의: 특정 목적에 맞게 사전 학습된 언어 모델을 미세 조정하거나 강화 학습을 통해 성능을 최적화하는 방법론. ㅇ 특징: – 기존 모델의 성능을 유지하면서 특정 태스크에 적합한 성능을 강화. – 추가적인 데이터나 도메인 지식을 활용하여 모델을 개선. ㅇ 적합한 경우: – 특정 도메인에서의 성능 최적화가 필요한 경우. – 기존 모델의 전반적인 성능은 유지하며

PEFT/강화: QLoRA

ㅁ PEFT/강화 ㅇ 정의: – PEFT(Parametric Efficient Fine-Tuning)는 사전 학습된 언어 모델을 효율적으로 미세 조정하기 위한 기법이며, 강화 학습은 모델의 성능을 특정 목표에 맞게 최적화하는 방법을 의미함. ㅇ 특징: – PEFT는 대규모 모델의 모든 파라미터를 업데이트하지 않고 일부 파라미터만 조정하여 효율성을 극대화함. – 강화 학습은 보상 신호를 기반으로 모델이 학습하며, 주로 행동의 최적화를 목표로 함.

PEFT/강화: Speculative Decoding

ㅁ PEFT/강화 ㅇ 정의: PEFT(Parameterized Efficient Fine-Tuning)는 사전 학습된 모델을 효율적으로 튜닝하는 방법이며, 강화 학습은 모델의 성능을 정렬하거나 개선하는 데 사용된다. ㅇ 특징: – PEFT는 모델의 일부 파라미터만 조정하여 효율성을 높임. – 강화 학습은 보상 신호를 통해 모델의 행동을 개선함. ㅇ 적합한 경우: – 자원 제한 환경에서 대규모 모델을 튜닝할 때. – 특정 작업에 대한

Pruning/Quant: Post-Training Quantization

ㅁ Pruning/Quant ㅇ 정의: 모델의 크기를 줄이고 실행 속도를 개선하기 위해 파라미터를 삭제하거나 데이터 표현을 줄이는 기술. ㅇ 특징: – Pruning은 모델에서 중요하지 않은 연결을 제거하여 경량화. – Quantization은 데이터 표현을 낮은 비트로 변환하여 메모리 사용을 감소. – 모델 성능 저하를 최소화하는 것이 핵심. ㅇ 적합한 경우: – 리소스 제한적인 환경에서의 모델 배포. – 모바일

Pruning/Quant: Unstructured Pruning

ㅁ Pruning/Quant ㅇ 정의: Pruning/Quant는 모델 경량화를 위한 기술로, 딥러닝 모델의 불필요한 가중치를 제거하거나 숫자 표현 방식을 변경하여 메모리와 계산 효율을 개선하는 방법을 포함한다. ㅇ 특징: 모델의 성능 저하를 최소화하면서 계산 복잡도를 줄이는 데 중점을 둔다. Pruning은 가중치 제거, Quant는 숫자 표현 방식 변경을 포함한다. ㅇ 적합한 경우: 모바일 및 임베디드 환경에서 메모리와 계산 자원이

운영/검증: A/B Testing

ㅁ 운영/검증 ㅇ 정의: A/B Testing은 두 가지 이상의 버전을 비교하여 어떤 버전이 더 나은 성과를 내는지 검증하는 실험 방법이다. ㅇ 특징: – 사용자 그룹을 무작위로 나누어 각기 다른 버전을 제공한다. – 성능 지표(클릭률, 전환율 등)를 기준으로 비교 분석한다. – 실험 결과는 통계적으로 유의미한 데이터를 기반으로 해석한다. ㅇ 적합한 경우: – 새로운 기능이나 UI 변경이

운영/검증: Feature Drift

ㅁ 운영/검증 ㅇ 정의: – 운영 중인 머신러닝 모델이 입력 데이터의 특성이 시간이 지남에 따라 변화하는 현상을 의미. ㅇ 특징: – 데이터 분포의 변화로 인해 모델 성능이 저하될 수 있음. – 주로 외부 환경 변화, 사용자 행동 변화, 데이터 수집 방식의 변경 등으로 발생. – 모델의 예측 결과가 신뢰성을 잃게 되는 주요 원인 중 하나.