시퀀스 처리:
ㅁ 시퀀스 처리
ㅇ 정의:
시퀀스 데이터의 시작과 끝을 처리하기 위해 특수 토큰을 사용하는 방법.
ㅇ 특징:
– 시퀀스의 끝을 명확히 표시하여 모델이 더 효율적으로 학습할 수 있도록 도움.
– 주로 자연어 처리(NLP)에서 사용되며, 끝을 의미하는
ㅇ 적합한 경우:
– 가변 길이의 시퀀스 데이터를 처리할 때.
– 문장의 끝을 명확히 구분해야 하는 경우.
ㅇ 시험 함정:
–
–
ㅇ 시험 대비 “패턴 보기” 예시:
1.
2.
================================
1.
ㅇ 정의:
끝을 나타내는 특수 토큰으로, 시퀀스 데이터의 종료를 명시적으로 표시.
ㅇ 특징:
– 모델이 시퀀스의 끝을 학습하도록 돕는 역할.
– 예측 종료 시점을 명확히 하여 불필요한 계산을 줄임.
ㅇ 적합한 경우:
– 기계 번역에서 번역 문장의 끝을 나타낼 때.
– 텍스트 생성 모델에서 문장의 마무리를 명확히 해야 할 때.
ㅇ 시험 함정:
–
–
ㅇ 시험 대비 “패턴 보기” 예시:
1.
2.
ㅁ 추가 학습 내용
1.
– 의미: End of Sequence의 약자로, 시퀀스의 끝을 나타내는 토큰입니다.
– 역할: 모델이 입력 또는 출력 시퀀스의 종료 지점을 인식할 수 있도록 합니다.
– 활용 사례: 자연어 처리(NLP)에서 문장 생성 작업(예: 기계 번역, 텍스트 생성) 시 사용됩니다. 예를 들어, 모델이 문장을 생성하다가
– 모델 학습에 미치는 영향:
2.
– 의미: Padding의 약자로, 시퀀스의 길이를 맞추기 위해 추가되는 토큰입니다.
– 역할: 입력 데이터의 길이가 일정하지 않을 때, 짧은 시퀀스를 채워 길이를 동일하게 만듭니다.
– 활용 사례: 배치 처리 과정에서 사용됩니다. 예를 들어, 길이가 다른 문장들을 하나의 배치로 묶기 위해 짧은 문장에
– 모델 학습에 미치는 영향:
3. 주요 차이점:
–
–
4. 실제 사례:
– 기계 번역: “I love you”를 “나는 너를 사랑해”로 번역하는 경우, 모델은 “나는 너를 사랑해
– 배치 처리: [“나는”, “나는 너를 사랑해”] 두 문장을 하나의 배치로 만들 때, [“나는
5. 추가 자료 검토:
–
–