시퀀스 처리:
ㅁ 시퀀스 처리
ㅇ 정의:
시퀀스 데이터를 처리하거나 모델에 입력하기 위해 특수 토큰 및 패딩 방식을 사용하는 기법.
ㅇ 특징:
– 시퀀스 길이를 맞추기 위해 패딩을 추가하거나, 특정 토큰을 활용해 모델의 학습 및 추론을 유도.
– NLP에서 주로 사용되며, 예측 및 마스킹을 통해 문맥 정보를 학습.
ㅇ 적합한 경우:
– 입력 데이터의 길이가 가변적인 경우.
– 특정 단어 또는 문장의 일부를 예측하거나, 문맥을 보존해야 하는 경우.
ㅇ 시험 함정:
– 패딩 토큰을 학습 과정에서 무시하지 않으면 모델 성능 저하.
– 특수 토큰의 위치와 역할을 정확히 이해하지 못하면 모델 동작을 잘못 해석할 가능성.
ㅇ 시험 대비 “패턴 보기” 예시:
– O:
– X:
================================
1.
ㅇ 정의:
자연어 처리에서 특정 단어를 숨기고 해당 단어를 모델이 예측하도록 유도하는 특수 토큰.
ㅇ 특징:
– BERT 모델 등에서 사용되며, 문맥 기반의 단어 예측을 가능하게 함.
– 학습 과정에서 정답 단어를 제공하여 모델이 문맥을 이해하도록 학습.
ㅇ 적합한 경우:
– 문장의 일부를 마스킹하여 문맥 기반의 단어 예측을 학습할 때.
– 문장 내 특정 단어의 의미를 문맥적으로 이해해야 하는 경우.
ㅇ 시험 함정:
–
–
ㅇ 시험 대비 “패턴 보기” 예시:
– O:
– X:
ㅁ 추가 학습 내용
1.
2.
3. 특수 토큰은 다국어 처리(Multilingual NLP)에서 언어 간 구분과 문맥 이해를 돕는 데 활용됩니다. 예를 들어 mBERT와 XLM-R 같은 다국어 모델에서는 언어 식별 토큰이나