아키텍처/블록: Instance Normalization

ㅁ 아키텍처/블록 ㅇ 정의: – 신경망에서 데이터 분포를 정규화하여 학습 안정성을 높이는 기법. ㅇ 특징: – Batch Normalization과 달리 배치 크기에 의존하지 않으며, 이미지 스타일 변환 작업에서 자주 사용됨. – 각 채널별로 독립적으로 평균과 분산을 계산하여 정규화 수행. ㅇ 적합한 경우: – 스타일 변환, 이미지 생성 모델 등에서 데이터 배치 크기가 작거나 불규칙한 경우. ㅇ

아키텍처/블록: Multi-Head Attention

ㅁ 아키텍처/블록 ㅇ 정의: – 아키텍처/블록은 딥러닝 모델의 구조적 요소로, 모델의 성능과 효율성을 결정짓는 핵심 구성 단위입니다. ㅇ 특징: – 반복적이고 모듈화된 설계가 가능하며, 다양한 문제에 맞게 조합 및 조정될 수 있습니다. ㅇ 적합한 경우: – 복잡한 입력 데이터를 처리하거나, 특정 패턴을 학습해야 하는 문제에서 효과적입니다. ㅇ 시험 함정: – 아키텍처의 역할과 구현 목적을 혼동하거나,

Optimizer: Nesterov Momentum

ㅁ Optimizer ㅇ 정의: 최적화를 통해 손실 함수를 최소화하거나 성능을 최대화하기 위해 사용하는 알고리즘. ㅇ 특징: – 학습 속도를 높이고, 손실 함수의 최솟값에 더 빨리 도달하도록 지원. – 다양한 하이퍼파라미터 튜닝이 필요. ㅇ 적합한 경우: – 대규모 데이터셋에서 빠른 수렴이 필요한 경우. – 복잡한 신경망 구조에서 학습 성능을 높이고자 할 때. ㅇ 시험 함정: –

토큰/평가: ROUGE

ㅁ 토큰/평가 ㅇ 정의: 텍스트 요약 품질을 평가하기 위해 사용되는 자동화된 지표 중 하나로, 생성된 요약과 참조 요약 간의 겹치는 단어, 구문, 문장 등을 비교하여 유사도를 측정한다. ㅇ 특징: – 주로 요약 생성 모델의 성능 평가에 사용됨. – ROUGE-N, ROUGE-L, ROUGE-W 등 다양한 변형이 존재하며, 각 변형은 특정 유형의 유사도를 측정함. – 단순히 겹치는 단어

토큰/평가: BLEU

ㅁ 토큰/평가 ㅇ 정의: 토큰화된 텍스트 데이터의 품질을 평가하는 지표로, 주로 기계 번역에서 생성된 텍스트와 참조 텍스트 간의 유사도를 측정하는 데 사용됨. ㅇ 특징: – BLEU는 n-그램의 겹침 비율을 기반으로 계산됨. – 1-그램부터 4-그램까지의 가중치를 조합하여 점수를 산출함. – 짧은 번역에 대한 패널티를 적용하기 위해 Brevity Penalty(BP)를 사용함. ㅇ 적합한 경우: – 기계 번역, 텍스트

토큰/평가: WordPiece

ㅁ 토큰/평가 ㅇ 정의: 토큰화는 텍스트를 작은 단위로 나누는 과정이며, WordPiece는 서브워드 기반 토크나이저로, 텍스트를 의미 있는 작은 단위로 분할하여 어휘 크기를 줄이고 희소성을 해결하는 데 사용된다. ㅇ 특징: WordPiece는 빈도가 높은 서브워드를 우선적으로 선택하며, 어휘 크기를 제한하여 희소성을 줄인다. 주로 BERT와 같은 모델에서 사용되며, ##로 시작하는 토큰은 이전 토큰과 결합된 형태를 나타낸다. ㅇ 적합한

토큰/평가: BPE

ㅁ 토큰/평가 ㅇ 정의: – 텍스트를 작은 단위로 분리하여 처리하거나 분석하는 과정, 또는 이를 평가하는 방법론. ㅇ 특징: – 자연어 처리에서 필수적인 전처리 단계로, 텍스트 데이터를 숫자로 변환하기 위한 기반을 제공함. – 평가 지표는 모델의 성능을 정량적으로 나타내는 데 사용됨. ㅇ 적합한 경우: – 대규모 텍스트 데이터를 처리할 때. – 모델의 성능 비교가 필요한 경우.

GNN/임베딩: Node2Vec

ㅁ GNN/임베딩 ㅇ 정의: 그래프의 구조적 정보를 벡터 공간으로 변환하여 노드 간의 관계를 학습하는 기술. ㅇ 특징: – 노드 간의 유사성을 벡터로 표현 가능. – 그래프 데이터의 구조적 특성을 보존. – 다양한 그래프 기반 응용에 활용 가능. ㅇ 적합한 경우: – 소셜 네트워크 분석. – 추천 시스템에서의 사용자-아이템 관계 분석. – 지식 그래프에서의 엔티티 간

GNN/임베딩: GCN

ㅁ GNN/임베딩 ㅇ 정의: 그래프 데이터를 처리하고 학습하기 위한 딥러닝 모델로, 노드, 엣지, 그래프 수준의 임베딩을 생성. ㅇ 특징: 그래프 구조를 활용하여 관계 및 연결성을 학습하며, 비유클리드 데이터에 적합. 다양한 그래프 유형(예: 유향, 무향)에 적용 가능. ㅇ 적합한 경우: 소셜 네트워크 분석, 지식 그래프, 추천 시스템, 화학 분자 구조 분석 등 그래프 형식의 데이터가 주어질

백본/구성: Feature Pyramid Network (FPN)

ㅁ 백본/구성 ㅇ 정의: 백본/구성은 컴퓨터 비전 모델에서 특징 추출 및 학습 구조를 설계하는 데 사용되는 핵심 아키텍처를 의미함. 다양한 백본과 구성 요소는 특정 문제에 적합한 성능을 발휘하도록 설계됨. ㅇ 특징: – 다양한 데이터셋과 문제 유형에 따라 맞춤형 설계 가능 – 일반적으로 CNN 계열의 네트워크가 주로 사용됨 – 모델의 성능과 복잡도 간의 균형이 중요 ㅇ