모델: 시퀀스 처리 –
ㅁ 시퀀스 처리
ㅇ 정의:
– 자연어 처리(NLP)에서 입력 문장 내 특정 위치의 단어를 마스킹(masking)하여 모델이 해당 단어를 예측하도록 하는 특수 토큰.
– 주로 BERT와 같은 마스크드 언어 모델(MLM)에서 사용됨.
ㅇ 특징:
– 토큰화 과정에서
– 모델은 주변 문맥(Context)을 활용하여 마스킹된 단어를 추론.
– 학습 단계에서만 사용되며, 실제 추론(inference) 시에는 일반적으로 사용되지 않음.
ㅇ 적합한 경우:
– 문맥 기반 단어 예측이 필요한 언어 모델 학습.
– 데이터 증강(Data Augmentation) 목적으로 일부 단어를 가려 학습 다양성 확보.
ㅇ 시험 함정:
–
– 추론 단계에서
–
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “BERT는 학습 시 입력 문장의 일부를
– X: “GPT-2는 문장 내 단어를
– X: “
ㅁ 추가 학습 내용