AI: 그래프 증강 기법 – Edge Dropout
ㅁ 그래프 증강 기법
ㅇ 정의:
그래프의 구조를 변형하여 모델의 일반화 성능을 높이는 데이터 증강 방법 중 하나로, Edge Dropout은 그래프의 일부 간선을 확률적으로 제거하는 기법이다.
ㅇ 특징:
– 간선 제거를 통해 노드 간 연결성을 변화시켜 과적합을 방지.
– 모델이 다양한 구조적 변형에 견고하도록 학습.
– 무작위성이 있어 매 학습 시 다른 그래프 구조를 경험.
ㅇ 적합한 경우:
– 노드 분류, 링크 예측 등에서 데이터가 적어 모델이 과적합될 가능성이 높을 때.
– 그래프가 지나치게 조밀하여 불필요한 간선이 많을 때.
ㅇ 시험 함정:
– Edge Dropout은 노드를 제거하는 기법이 아니라 간선을 제거하는 기법임.
– 모든 간선을 동일 확률로 제거하는 것이 일반적이지만, 가중치 기반 선택도 가능.
– Edge Dropout은 학습 시에만 적용하고, 추론 시에는 원본 그래프를 사용.
ㅇ 시험 대비 “패턴 보기” 예시:
O: “Edge Dropout은 그래프의 일부 간선을 확률적으로 제거하여 일반화 성능을 향상시킨다.”
X: “Edge Dropout은 그래프의 일부 노드를 확률적으로 제거한다.”
X: “Edge Dropout은 추론 시에도 간선을 제거하여 예측한다.”
ㅁ 추가 학습 내용
Edge Dropout은 그래프의 일부 간선을 확률적으로 제거하여 모델의 일반화 성능을 높이는 기법이다. 이와 유사한 기법으로 Node Dropout(노드를 제거)과 Feature Masking(노드 특성의 일부를 가리는 방법)이 있다. Edge Dropout에서 확률 p가 너무 크면 그래프가 단절되어 정보 손실이 커지고, p가 너무 작으면 데이터 증강 효과가 미미하다. Edge Dropout은 무작위 제거뿐 아니라 중요도 기반 제거 방식으로 변형할 수 있으며, 예를 들어 중심성이 낮은 간선을 제거하는 방법이 최신 연구에서 성능 향상에 활용된다. GCN, GAT 등 그래프 신경망 모델 학습 시 Edge Dropout은 학습 단계에서만 적용되고, 추론 단계에서는 원본 그래프를 사용한다.