모델: 의미론적 분할/증강 – Random Rotation

ㅁ 의미론적 분할/증강 ㅇ 정의: 의료 영상 데이터의 의미론적 분할(Semantic Segmentation) 작업에서 데이터 다양성을 높이기 위해 이미지를 무작위 각도로 회전시키는 데이터 증강 기법. ㅇ 특징: – 회전 각도 범위를 설정(예: -30° ~ +30°)하여 학습 시마다 무작위로 적용. – 원본 이미지와 레이블(마스크)을 동일하게 회전시켜야 함. – 영상의 방향성이 중요한 경우(예: CT, MRI의 해부학적 방향) 주의 필요.

모델: 의미론적 분할/증강 – Brightness Adjustment

ㅁ 의미론적 분할/증강 ㅇ 정의: 의료 영상에서 이미지의 밝기를 조정하여 데이터 다양성을 확보하고, 모델이 다양한 조명 조건에서도 안정적으로 동작하도록 만드는 데이터 증강 기법. ㅇ 특징: – 픽셀 값에 일정한 상수나 비율을 더하거나 곱해 전체적인 밝기를 변화시킴. – 원본 데이터의 구조적 정보(형태, 경계)는 유지되지만 명암 대비가 변함. – 과도한 밝기 조정은 병변의 가시성을 떨어뜨릴 수 있음.

모델: 의미론적 분할/증강 – Gaussian Blur

ㅁ 의미론적 분할/증강 ㅇ 정의: 의료 영상 데이터에서 경계나 세부 구조를 흐리게 하여 모델이 다양한 화질 및 노이즈 상황에 적응하도록 만드는 이미지 증강 기법. ㅇ 특징: – 영상의 고주파 성분(경계, 세부 텍스처)을 줄이고 저주파 성분을 강조. – 커널 크기와 표준편차(sigma)에 따라 흐림 정도 조절 가능. – 과적합 방지 및 일반화 성능 향상에 도움. ㅇ 적합한

모델: 의미론적 분할/증강 – Random Erasing

ㅁ 의미론적 분할/증강 ㅇ 정의: 이미지의 일부 영역을 무작위로 선택하여 픽셀 값을 지우거나 다른 값으로 대체하는 데이터 증강 기법으로, 모델이 특정 영역이나 패턴에 과도하게 의존하지 않도록 학습을 돕는다. ㅇ 특징: – 입력 이미지의 임의 사각형 영역을 마스킹 처리 – 마스킹 영역의 크기, 위치, 색상은 랜덤하게 결정 – 과적합 방지 및 일반화 성능 향상에 효과적 –

모델: 손실 마스킹 – ignore_index

ㅁ 손실 마스킹 ㅇ 정의: 손실(loss) 계산 시 특정 토큰의 예측 결과를 무시하도록 설정하는 기법. 주로 패딩 토큰(PAD)이나 학습에 불필요한 토큰의 손실 값을 계산에서 제외하기 위해 사용. ㅇ 특징: – PyTorch의 CrossEntropyLoss 등에서 ignore_index 파라미터를 사용하여 특정 인덱스를 무시 가능. – 모델의 성능 평가 시 불필요한 오차를 제거하여 정확한 학습 유도. – 주로 시퀀스 데이터

모델: 손실 마스킹 – Attention Masking

ㅁ 손실 마스킹 ㅇ 정의: 모델 학습 시 특정 토큰이나 위치의 손실(loss)을 계산에서 제외하는 기법으로, 주로 패딩 토큰이나 예측 대상이 아닌 구간을 무시하기 위해 사용됨. ㅇ 특징: – 입력 시퀀스의 길이가 다를 때 패딩 부분의 손실이 모델 성능에 영향을 주지 않도록 함 – 마스크 값(0 또는 1)을 곱하여 무시할 위치의 손실을 0으로 만듦 – RNN,

모델: 손실 마스킹 – Loss Masking

ㅁ 손실 마스킹 ㅇ 정의: 모델 학습 시 특정 토큰이나 위치에 대해 손실(loss)을 계산하지 않도록 마스크를 적용하는 기법. 주로 패딩 토큰이나 예측이 불필요한 구간을 제외하기 위해 사용됨. ㅇ 특징: – 입력 시퀀스 길이가 다를 때 패딩으로 채워진 부분의 손실을 0으로 처리하여 모델이 불필요한 학습을 하지 않도록 함. – 마스크는 보통 0/1 값의 텐서로 구성되며, 손실

모델: 시퀀스 처리 –

ㅁ 시퀀스 처리 ㅇ 정의: – 자연어 처리(NLP)에서 입력 문장 내 특정 위치의 단어를 마스킹(masking)하여 모델이 해당 단어를 예측하도록 하는 특수 토큰. – 주로 BERT와 같은 마스크드 언어 모델(MLM)에서 사용됨. ㅇ 특징: – 토큰화 과정에서 토큰이 삽입되어 해당 위치의 정보를 숨김. – 모델은 주변 문맥(Context)을 활용하여 마스킹된 단어를 추론. – 학습 단계에서만 사용되며, 실제 추론(inference)

모델: 시퀀스 처리 –

ㅁ 시퀀스 처리 ㅇ 정의: 문장 또는 토큰 시퀀스를 구분하기 위해 사용하는 특수 토큰 중 하나로, 특히 BERT 계열 모델에서 두 문장을 구분할 때 사용되는 구분자 토큰. ㅇ 특징: – 일반적으로 토큰화 과정에서 자동으로 삽입됨. – 두 개 이상의 문장을 하나의 입력으로 처리할 때 경계 표시 역할 수행. – 모델이 문장 A와 문장 B를 구분하여

모델: 시퀀스 처리 –

ㅁ 시퀀스 처리 ㅇ 정의: 입력 시퀀스의 맨 앞에 추가되는 특수 토큰으로, 주로 문장 전체의 의미를 대표하는 벡터를 생성하기 위해 사용됨. BERT 계열 모델에서 분류 작업 시 이 토큰의 출력 벡터를 활용함. ㅇ 특징: – 항상 시퀀스의 시작 위치에 위치함 – 모델이 문장 전체를 요약한 정보를 이 위치의 벡터에 담도록 학습됨 – 분류, 회귀, 문장