AI 모델 개발: 신경망 구조

ㅁ 신경망 구조

ㅇ 정의:
인공지능 모델에서 데이터를 처리하고 특징을 추출하기 위해 설계된 네트워크 구조로, 각 구조는 데이터 특성과 목적에 따라 다르게 설계됨.

ㅇ 특징:
– 데이터 형태(이미지, 시계열, 그래프 등)에 따라 최적화된 구조가 존재
– 계층(layer) 구성 방식과 연산 방식에 따라 성능과 효율성이 달라짐
– 특정 구조는 특정 도메인에서 압도적인 성능을 발휘

ㅇ 적합한 경우:
– 문제 유형과 입력 데이터 형태가 명확한 경우
– 기존 연구에서 검증된 구조를 활용하거나 변형하여 성능 개선을 목표로 할 때

ㅇ 시험 함정:
– 각 구조의 특징과 데이터 적합성을 혼동
– 구조 간 용어 혼동(CNN의 필터 vs RNN의 hidden state 등)
– 최신 구조 이름에 현혹되어 기존 구조의 장단점을 간과

ㅇ 시험 대비 “패턴 보기” 예시:
O: “CNN은 이미지 데이터 처리에 특화되어 있으며, 합성곱 연산을 통해 지역적 특징을 추출한다.”
X: “RNN은 이미지 분류에서 CNN보다 항상 우수하다.”

================================

1. CNN

ㅇ 정의:
합성곱 신경망(Convolutional Neural Network)으로, 합성곱 연산을 통해 이미지나 공간적 데이터에서 특징을 추출하는 구조.

ㅇ 특징:
– 지역적 리셉티브 필드(필터)를 사용하여 특징 감지
– 파라미터 수 절감 및 학습 효율성 향상
– 계층적으로 특징을 추출하여 고차원 표현 가능

ㅇ 적합한 경우:
– 이미지 분류, 객체 탐지, 영상 처리
– 2D/3D 공간 데이터 분석

ㅇ 시험 함정:
– Fully Connected Layer와 혼동
– 합성곱 필터 크기, stride, padding 개념 혼동

ㅇ 시험 대비 “패턴 보기” 예시:
O: “CNN은 합성곱 계층과 풀링 계층을 반복적으로 쌓아 특징을 추출한다.”
X: “CNN은 시계열 데이터에서 순환 구조로 동작한다.”

================================

2. RNN

ㅇ 정의:
순환 신경망(Recurrent Neural Network)으로, 시계열 데이터나 순차 데이터를 처리하기 위해 이전 상태 정보를 현재 상태 계산에 반영하는 구조.

ㅇ 특징:
– 은닉 상태(hidden state)를 통해 과거 정보를 유지
– 시계열 패턴 학습에 적합
– 장기 의존성 문제(vanishing gradient) 발생 가능

ㅇ 적합한 경우:
– 자연어 처리, 음성 인식, 주가 예측 등 시계열 문제
– 순서가 중요한 데이터 처리

ㅇ 시험 함정:
– LSTM, GRU와의 차이 혼동
– 시간 순서를 무시한 데이터에 적용 시 성능 저하

ㅇ 시험 대비 “패턴 보기” 예시:
O: “RNN은 은닉 상태를 반복적으로 전달하여 시퀀스 데이터를 처리한다.”
X: “RNN은 합성곱 연산을 사용하여 공간 특징을 추출한다.”

================================

3. Transformer

ㅇ 정의:
자기 주의(Self-Attention) 메커니즘을 기반으로 한 신경망 구조로, 순차적 처리 없이 전체 입력 시퀀스를 병렬적으로 처리 가능.

ㅇ 특징:
– 긴 시퀀스에서도 장기 의존성 문제 완화
– 병렬 처리 가능하여 학습 속도 향상
– 다양한 NLP, 비전, 멀티모달 작업에 확장 가능

ㅇ 적합한 경우:
– 자연어 처리(NLP), 기계 번역, 문서 요약
– 대규모 데이터 기반 사전학습 모델(BERT, GPT 등)

ㅇ 시험 함정:
– RNN과 달리 순차 처리를 하지 않음
– Attention Score 계산 과정 혼동

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Transformer는 Self-Attention을 사용하여 입력 시퀀스의 모든 위치 간 관계를 동시에 학습한다.”
X: “Transformer는 입력을 반드시 순차적으로만 처리할 수 있다.”

================================

4. GNN

ㅇ 정의:
그래프 신경망(Graph Neural Network)으로, 노드와 엣지로 구성된 그래프 구조 데이터를 처리하기 위한 모델.

ㅇ 특징:
– 노드 간 관계와 구조적 패턴을 학습
– 인접 노드의 특징을 집계(Aggregation)하여 표현 학습
– 다양한 그래프 유형(정적, 동적, 가중치 등)에 적용 가능

ㅇ 적합한 경우:
– 소셜 네트워크 분석, 추천 시스템, 화학 분자 구조 분석
– 관계 중심의 데이터 처리

ㅇ 시험 함정:
– CNN, RNN과 달리 데이터의 공간 구조가 불규칙함
– 그래프의 방향성, 가중치 고려 여부 혼동

ㅇ 시험 대비 “패턴 보기” 예시:
O: “GNN은 인접 노드들의 특징을 집계하여 새로운 노드 표현을 학습한다.”
X: “GNN은 2D 이미지 데이터를 합성곱으로 처리한다.”

================================

제가 원하시면, 다음에는 각 세부 용어의 **하위 주요 기술(예: LSTM, ResNet, GraphSAGE 등)**까지 확장해서 시험 대비 노트를 만들어 드릴 수도 있습니다.
다음 단계로 하위 주요 기술까지 정리해 드릴까요?

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*