AI: Contrastive/Self-supervised 학습 – downstream task

ㅁ Contrastive/Self-supervised 학습

ㅇ 정의:
라벨이 없는 데이터에서 표현(representation)을 학습한 뒤, 이를 활용해 다른 목적의 지도학습이나 예측 문제에 적용하는 학습 방식. Contrastive 학습은 서로 다른 샘플을 구분하고, Self-supervised는 데이터 자체에서 생성한 레이블로 사전학습함.

ㅇ 특징:
– 대규모 비라벨 데이터 활용 가능
– 사전학습(pre-training)과 전이학습(transfer learning)의 핵심
– 다운스트림 태스크에서 적은 라벨 데이터로도 높은 성능 가능

ㅇ 적합한 경우:
– 라벨링 비용이 높거나 데이터가 방대할 때
– 다양한 도메인에 걸쳐 일반화 가능한 표현이 필요한 경우

ㅇ 시험 함정:
– Contrastive 학습과 Self-supervised 학습을 동일시하는 경우
– 다운스트림 태스크를 사전학습 단계로 오해하는 경우

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Self-supervised 학습에서 학습된 표현은 downstream task에서 활용될 수 있다.”
X: “Downstream task는 라벨이 없는 데이터로만 수행된다.”

================================

1. downstream task

ㅇ 정의:
사전학습(pre-training)된 모델이 생성한 표현을 활용하여 실제 목표로 하는 최종 작업(분류, 회귀, 검출 등)을 수행하는 단계.

ㅇ 특징:
– 사전학습 모델의 표현 품질이 성능에 직접 영향
– 일반적으로 소량의 라벨 데이터로 fine-tuning
– 다양한 형태(텍스트 분류, 이미지 분류, 음성 인식 등)로 존재

ㅇ 적합한 경우:
– 사전학습 데이터와 다운스트림 데이터의 도메인이 유사할 때
– 라벨 데이터가 제한적인 환경에서 빠른 성능 향상이 필요할 때

ㅇ 시험 함정:
– Downstream task를 pretext task(사전학습 목적)와 혼동
– 사전학습 없이도 downstream task가 가능하다는 점을 간과

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Downstream task는 사전학습된 표현을 기반으로 수행된다.”
X: “Downstream task는 반드시 대규모 라벨 데이터가 필요하다.”

ㅁ 추가 학습 내용

pretext task는 self-supervised 학습에서 라벨을 자동 생성하여 모델을 학습시키는 사전 목적 과제이며, downstream task는 이렇게 학습된 표현을 활용해 실제 목표 과제를 수행하는 것이다.
모델 활용 방식에는 fine-tuning과 feature extraction이 있다. fine-tuning은 전체 모델 파라미터를 조정하여 새로운 과제에 맞추는 방식이고, feature extraction은 사전학습된 가중치를 고정한 채 출력된 특징만 활용하는 방식이다.
시험에서는 pretext task와 downstream task의 구분, fine-tuning과 feature extraction의 차이, 그리고 zero-shot·few-shot 학습과의 연관성, 도메인 적합성(domain adaptation) 개념이 자주 출제된다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*