ㅁ 핵심 메커니즘 1. LoRA 저차원 행렬 ㅇ 정의: – Low-Rank Adaptation의 약자로, 대규모 모델의 가중치 업데이트를 저차원 행렬로 분해하여 학습 파라미터 수를 줄이는 기법. ㅇ 특징: – 기존 가중치는 고정하고, 저차원 행렬만 학습. – 메모리 사용량과 연산량 절감. – 기존 모델 성능을 유지하면서도 빠른 파인튜닝 가능. ㅇ 적합한 경우: – 대규모 언어모델(LLM) 파인튜닝 시
ㅁ 오해 및 정정 1. BERT NSP 오용 ㅇ 정의: – BERT의 Next Sentence Prediction(NSP) 목적을 잘못 이해하거나 불필요하게 사용하는 경우를 의미. – NSP는 두 문장이 연속인지 여부를 예측하는 사전학습 태스크. ㅇ 특징: – NSP는 문장 간 관계 학습에 도움을 주지만, 문장 내 토큰 이해와 직접적 관련은 적음. – 일부 연구에서 NSP를 제거해도 성능 저하가
ㅁ 학습기법 특징 및 업데이트 1. EMA 업데이트 ㅇ 정의: – Exponential Moving Average(지수이동평균) 기법을 모델 파라미터 업데이트에 적용하여, 학습 중 안정적인 타겟 네트워크를 유지하는 방법. ㅇ 특징: – 현재 모델 가중치와 이전 타겟 가중치를 EMA 방식으로 혼합하여 업데이트. – 노이즈에 덜 민감하고 학습 안정성 향상. – BYOL, Mean Teacher 등 자기지도학습에서 자주 사용. ㅇ
ㅁ 학습 및 생성 과정 ㅇ 정의: 확산 모델에서 데이터에 점진적으로 노이즈를 추가하고, 이를 역으로 제거하여 원본 데이터를 복원하는 전체 절차. ㅇ 특징: 데이터 분포를 점진적으로 파괴하고 재구성하는 과정을 통해 안정적인 생성 품질 확보. ㅇ 적합한 경우: 이미지, 오디오, 3D 데이터 등 복잡한 분포를 가진 데이터 생성. ㅇ 시험 함정: Forward와 Backward 과정의 방향 혼동,
ㅁ 효과 및 적용 1. Node Feature Masking ㅇ 정의: – 그래프의 노드 속성(feature) 중 일부를 의도적으로 가려서(마스킹) 모델이 특정 속성에 과도하게 의존하지 않도록 하는 데이터 증강 기법. ㅇ 특징: – 입력 노드 특성의 일부를 무작위 또는 규칙적으로 0 또는 특수 토큰으로 대체. – 모델이 다양한 feature 조합을 학습하여 일반화 성능 향상. – 과적합 방지
ㅁ 적합성 평가 1. Random Erasing 효과 ㅇ 정의: – 이미지의 임의 영역을 사각형 형태로 제거(마스킹)하여 일부 픽셀 값을 무작위로 채우는 데이터 증강 기법. ㅇ 특징: – 모델이 특정 부분에만 의존하지 않고 전체적인 패턴을 학습하도록 유도. – 과적합 방지 효과. – 제거 영역 크기와 위치를 무작위로 설정. ㅇ 적합한 경우: – 객체 검출, 분류 모델에서
ㅁ 정확도 및 변환 1. inplace 처리 ㅇ 정의: – 데이터프레임이나 시리즈를 메서드 실행 시 원본 객체를 직접 수정하는 방식. ㅇ 특징: – 메모리 절약 가능. – 반환값이 None인 경우가 많음. – 원본 데이터가 변경되므로 복구 어려움. ㅇ 적합한 경우: – 대용량 데이터 처리 시 메모리 사용 최소화가 필요할 때. – 중간 결과 저장이 불필요한
ㅁ 심화 특수 토큰 ㅇ 정의: ㅇ 특징: ㅇ 적합한 경우: ㅇ 시험 함정: ㅇ 시험 대비 “패턴 보기” 예시: ================================ 1. Dynamic Padding ㅇ 정의: 입력 시퀀스의 길이에 맞추어 배치(batch)별로 패딩 길이를 동적으로 조정하는 기법. ㅇ 특징: – 불필요한 패딩 토큰 수를 최소화하여 메모리 효율과 연산 속도를 개선. – 배치마다 패딩 길이가 달라짐. –
ㅁ 스케줄링/조기종료 ㅇ 정의: 모델 학습 과정에서 학습률, 반복 횟수, 손실 변화 등을 제어하여 과적합을 방지하고 학습 효율을 높이는 기법들의 집합 ㅇ 특징: – 학습 중간에 동적으로 파라미터를 조정하거나 학습을 중단 – 불필요한 연산 낭비를 줄이고 일반화 성능 향상 ㅇ 적합한 경우: – 데이터셋이 작거나 과적합 가능성이 높은 경우 – 학습 시간이 제한된 경우 ㅇ
ㅁ RLOps 알고리즘/최적화 1. Proximal Policy Optimization(PPO) ㅇ 정의: – 정책 기반 강화학습 알고리즘으로, 기존 정책과 새로운 정책 간의 변화 폭을 제한하여 안정적인 학습을 유도하는 방법. ㅇ 특징: – Clipping 기법을 사용하여 정책 업데이트 폭을 제한 – On-policy 방식으로, 최근 수집한 데이터를 기반으로 학습 – 비교적 구현이 간단하고 안정성이 높음 ㅇ 적합한 경우: – 환경의