적합성/장점: 모드 붕괴

ㅁ 적합성/장점 ㅇ 정의: 특정 생성 모델이 데이터 분포의 다양한 모드를 제대로 학습하지 못하고 일부 모드에만 집중하는 현상. ㅇ 특징: – 생성된 샘플들이 다양성이 부족하고 특정 패턴에만 집중. – 데이터 분포의 일부만 재현 가능. – GAN(Generative Adversarial Networks)에서 자주 발생. ㅇ 적합한 경우: – 데이터의 특정 모드만 필요로 하는 응용 분야. – 단일 패턴이나 객체를

적합성/장점: 잠재 공간 해석

ㅁ 적합성/장점 ㅇ 정의: 생성모델의 잠재 공간을 분석하여 데이터의 구조적 특징과 패턴을 파악하는 방법. ㅇ 특징: – 고차원 데이터의 복잡한 관계를 저차원 공간에서 시각적으로 이해 가능. – 데이터 생성 모델의 성능을 평가하는 데 중요한 역할. – 데이터의 군집 분포와 변화를 추적 가능. ㅇ 적합한 경우: – 데이터의 구조적 관계를 분석해야 하는 경우. – 생성된 데이터가

적합성/장점: One-shot Generation

ㅁ 적합성/장점 ㅇ 정의: 생성 모델의 성능을 평가하거나 특정 시나리오에 모델의 적합성을 판단하기 위해 사용하는 기준 또는 특성. ㅇ 특징: – 사용자가 원하는 결과를 생성하는 데 필요한 조건이나 제약을 고려. – 모델의 효율성과 정확성에 대한 평가가 포함. ㅇ 적합한 경우: – 새로운 데이터 생성이 필요한 상황에서 모델의 성능을 비교할 때. – 특정 생성 모델이 특정

Contrastive/Self-supervised 학습: negative sample

ㅁ Contrastive/Self-supervised 학습 ㅇ 정의: Contrastive/Self-supervised 학습은 레이블이 없는 데이터에서 표현 학습을 수행하며, 데이터 간의 유사성과 차이를 학습하는 방법론이다. ㅇ 특징: – 레이블이 없는 데이터 활용 가능. – 데이터의 구조적 특징을 학습. – 대규모 데이터셋에서 효율적. ㅇ 적합한 경우: – 레이블이 부족하거나 없는 경우. – 데이터 간 관계를 학습해야 하는 경우. – 사전 학습(Pretraining) 단계에서

Contrastive/Self-supervised 학습: Masked Autoencoder(MAE)

ㅁ Contrastive/Self-supervised 학습 ㅇ 정의: 데이터의 구조적 특성을 활용하여 레이블 없이 학습을 진행하는 기법으로, 주로 데이터의 표현 학습에 사용됨. ㅇ 특징: 데이터의 일부를 변형하거나 제거하여 원본 데이터와의 관계를 학습하며, 모델이 데이터를 이해하고 표현하는 능력을 향상시킴. ㅇ 적합한 경우: 레이블이 부족한 대규모 데이터셋에서 데이터의 잠재적 구조를 학습하고자 할 때 적합함. ㅇ 시험 함정: Contrastive 학습과 Self-supervised

Contrastive/Self-supervised 학습: Jigsaw Puzzle

ㅁ Contrastive/Self-supervised 학습 ㅇ 정의: ㅇ 특징: ㅇ 적합한 경우: ㅇ 시험 함정: ㅇ 시험 대비 “패턴 보기” 예시: ================================ 1. Jigsaw Puzzle ㅇ 정의: Jigsaw Puzzle은 이미지의 일부를 잘라내어 순서를 섞은 후, 원래의 순서를 복원하도록 모델을 학습시키는 Self-supervised 학습 기법이다. ㅇ 특징: 순서 복원 작업을 통해 이미지의 공간적 구조와 패턴을 학습할 수 있다. 주로

Contrastive/Self-supervised 학습: pretext task

ㅁ Contrastive/Self-supervised 학습 ㅇ 정의: – 대량의 레이블이 없는 데이터를 활용하여 유용한 표현을 학습하는 방법론으로, 데이터를 변형하거나 비교하여 학습 목표를 설정함. ㅇ 특징: – 데이터 레이블이 필요 없으므로 데이터 수집 비용 절감 가능. – 학습된 표현은 다양한 다운스트림 작업에 활용 가능. – 일반적으로 대규모 데이터와 강력한 연산 자원이 필요. ㅇ 적합한 경우: – 레이블링이 어려운

Contrastive/Self-supervised 학습: downstream task

ㅁ Contrastive/Self-supervised 학습 ㅇ 정의: Contrastive/Self-supervised 학습은 레이블이 없는 데이터를 활용하여 데이터의 표현을 학습하는 방법으로, 주로 데이터 간의 유사성과 차이를 비교하는 방식으로 작동한다. ㅇ 특징: – 레이블이 없는 대규모 데이터셋으로 학습 가능 – 데이터 표현의 일반화를 높이는 데 유용 – 다양한 downstream task에 활용 가능 ㅇ 적합한 경우: – 레이블링된 데이터가 부족한 경우 – 데이터의

사전학습/언어모델 기법/토큰/Task: Dynamic masking

ㅁ 사전학습/언어모델 기법/토큰/Task ㅇ 정의: – 사전학습에서 사용되는 다양한 언어 모델과 토큰화 및 태스크 관련 기법을 포괄하는 소분류. ㅇ 특징: – 언어 처리 및 모델 학습의 성능을 최적화하기 위한 다양한 기술을 포함. – 모델의 일반화 능력을 높이고, 특정 태스크에 대한 적응력을 강화. ㅇ 적합한 경우: – 대규모 자연어 처리 태스크 수행 시. – 사전학습된 모델을

사전학습/언어모델 기법/토큰/Task: Span Masking

ㅁ 사전학습/언어모델 기법/토큰/Task ㅇ 정의: 사전학습 언어모델에서 문장 내 특정 구간(Span)을 마스킹하여 모델이 해당 구간의 내용을 예측하도록 학습하는 기법. ㅇ 특징: – 단어 단위가 아닌 연속된 텍스트 구간을 마스킹. – 모델이 문맥을 더 넓게 이해할 수 있도록 도움. – BERT와 같은 트랜스포머 기반 모델에서 주로 활용됨. ㅇ 적합한 경우: – 문맥 이해가 중요한 자연어 처리(NLP)