AI: 그래프 증강 기법 – Node Dropout

ㅁ 그래프 증강 기법

ㅇ 정의:
그래프 데이터에서 일부 노드를 무작위로 제거하여 모델이 특정 노드에 과적합되는 것을 방지하고, 일반화 성능을 향상시키는 데이터 증강 기법.

ㅇ 특징:
– 노드와 해당 노드에 연결된 엣지를 함께 제거함.
– 학습 시 네트워크 구조 변화를 유도하여 강건성(Robustness) 향상.
– 제거 비율이 높을수록 구조 정보 손실 가능성이 커짐.

ㅇ 적합한 경우:
– 노드 수가 많아 일부 제거해도 전체 구조가 크게 변하지 않는 경우.
– 라벨이 있는 노드 외에 불필요한 노드가 많아 노이즈 제거 효과를 기대할 수 있는 경우.

ㅇ 시험 함정:
– Node Dropout은 특징(feature)만 일부 제거하는 것이 아니라 노드 자체와 관련 엣지를 제거함.
– Edge Dropout과 혼동하기 쉬움.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Node Dropout은 학습 시 일부 노드와 해당 엣지를 제거하여 모델의 일반화 성능을 높인다.”
X: “Node Dropout은 노드의 속성(feature) 일부만 무작위로 제거하는 기법이다.”

ㅁ 추가 학습 내용

Node Dropout, Edge Dropout, Feature Masking의 차이점 정리

1. Node Dropout
– 그래프에서 일부 노드를 제거하여 학습 시 사용하지 않음
– 제거된 노드와 연결된 엣지도 함께 사라짐
– Dropout 비율이 너무 높으면 그래프 연결성이 크게 약화되어 학습이 불가능해질 수 있음
– 적정 비율 설정이 중요

2. Edge Dropout
– 노드는 유지한 채 일부 엣지만 제거
– 그래프의 연결 구조를 변화시켜 과적합 방지 및 일반화 성능 향상 목적
– 노드의 속성 정보는 그대로 유지됨

3. Feature Masking
– 노드와 엣지를 모두 유지
– 노드의 속성(특징) 값 중 일부를 가림(0 또는 마스킹 처리)
– 구조는 그대로 두고 특징 정보만 불완전하게 만들어 학습의 견고성 강화

시험 포인트
– 세 기법의 제거 대상과 유지되는 요소를 혼동하지 않기
– Node Dropout은 노드와 해당 엣지가 함께 사라진다는 점
– Edge Dropout은 노드 유지, 엣지만 제거
– Feature Masking은 구조 유지, 속성만 일부 제거
– Node Dropout 비율이 지나치게 높으면 그래프 단절로 학습 불가 상태 발생

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*