생성 모델: 프로세스 및 특징

ㅁ 프로세스 및 특징 ㅇ 정의: 확산 모델에서 데이터에 점진적으로 노이즈를 추가하고, 이를 제거하여 원본 데이터를 복원하는 과정 전반을 의미함. ㅇ 특징: – 순방향(Forward)과 역방향(Backward) 두 단계로 구성됨 – Forward는 데이터 파괴, Backward는 데이터 생성 과정 – 수학적으로 확률적 마코프 체인 기반으로 모델링됨 ㅇ 적합한 경우: – 이미지, 오디오 등 연속 데이터 생성 – 데이터

데이터 증강: 기법 및 효과

ㅁ 기법 및 효과 ㅇ 정의: ㅇ 특징: ㅇ 적합한 경우: ㅇ 시험 함정: ㅇ 시험 대비 “패턴 보기” 예시: ================================ 1. Node Dropout ㅇ 정의: – 그래프에서 일부 노드를 무작위로 제거하여 학습 시 과적합을 방지하는 데이터 증강 기법. ㅇ 특징: – 제거된 노드와 연결된 엣지도 함께 사라짐. – 네트워크의 구조적 다양성을 높임. – 노드

데이터 증강: 기법 및 효과

ㅁ 기법 및 효과 1. Random Erasing ㅇ 정의: – 이미지의 임의 영역을 선택하여 픽셀 값을 무작위 값이나 평균값 등으로 덮어씌우는 데이터 증강 기법. ㅇ 특징: – 모델이 특정 부분에 과도하게 의존하지 않도록 하여 일반화 성능 향상. – 객체 일부가 가려진 상황에 대한 강인성(Robustness) 증가. ㅇ 적합한 경우: – 물체 일부가 가려지는 경우가 많은 객체

데이터 전처리: 코딩 및 명령어

ㅁ 코딩 및 명령어 1. dropna(inplace=True) ㅇ 정의: 데이터프레임이나 시리즈에서 결측치(NaN)가 포함된 행 또는 열을 제거하는 메서드로, inplace=True 설정 시 원본 객체를 직접 수정함. ㅇ 특징: – inplace=True를 사용하면 새로운 객체를 반환하지 않고 기존 객체를 변경함. – axis 파라미터로 행(row) 또는 열(column) 기준 제거 가능. – how=’any’ 또는 ‘all’로 결측치 제거 조건 설정 가능. ㅇ

데이터 전처리: 특수 토큰

ㅁ 특수 토큰 ㅇ 정의: 자연어 처리(NLP)에서 문장의 시작, 끝, 패딩, 미지정 단어 등을 표시하기 위해 사용하는 예약된 토큰. ㅇ 특징: 모델 학습 시 문장의 구조를 명확히 하고, 길이 맞춤, 어휘 사전 외 단어 처리 등 특정 목적에 맞게 사용됨. ㅇ 적합한 경우: 시퀀스-투-시퀀스(seq2seq) 모델, 번역기, 챗봇, 음성인식 등 문장 경계나 고정 길이 입력이 필요한

데이터 전처리: 정규화 및 표준화

ㅁ 정규화 및 표준화 ㅇ 정의: 데이터의 범위나 분포를 조정하여 알고리즘 학습 성능을 향상시키는 전처리 기법. ㅇ 특징: – 서로 다른 단위나 범위를 가진 데이터를 동일 기준으로 맞춤. – 거리 기반 알고리즘(KNN, SVM, K-means 등)에서 중요. ㅇ 적합한 경우: – 피처 스케일 차이가 모델 성능에 영향을 주는 경우. ㅇ 시험 함정: – 정규화와 표준화를 혼동.

데이터 전처리: 데이터 편향 감소 방안

ㅁ 데이터 편향 감소 방안 1. 다양한 인구 집단 ㅇ 정의: 데이터 수집 시 연령, 성별, 인종, 지역, 사회경제적 배경 등 다양한 인구 통계학적 특성을 포함하도록 하는 방법. ㅇ 특징: 모집단의 대표성을 높이고, 특정 집단에 대한 과대·과소 대표를 방지함. ㅇ 적합한 경우: 예측 모델이 다양한 사용자 그룹에 적용되어야 하는 경우(예: 의료 진단, 공공 서비스). ㅇ

AI: 연합학습/프라이버시

ㅁ 연합학습/프라이버시 ㅇ 정의: 여러 참여자가 데이터 원본을 공유하지 않고도 협력하여 모델을 학습하거나 분석 결과를 도출하는 기술 및 방법론. ㅇ 특징: 데이터 프라이버시 보호, 법규 준수, 분산 환경 적용 가능. ㅇ 적합한 경우: 개인정보 보호가 중요한 의료, 금융, IoT 환경 등. ㅇ 시험 함정: 프라이버시 보호 기법이 성능 저하를 유발할 수 있다는 점 간과. ㅇ

AI: 멀티태스크 학습

ㅁ 멀티태스크 학습 ㅇ 정의: 하나의 모델이 동시에 여러 개의 관련된 작업(Task)을 학습하도록 하는 기법으로, 각 작업의 학습을 통해 공유된 표현(Feature Representation)을 향상시키는 방법. ㅇ 특징: – 파라미터를 공유하여 데이터 효율성과 일반화 성능을 높임. – 한 작업의 학습이 다른 작업의 성능 향상에 기여할 수 있음(Positive Transfer). – 반대로, 작업 간 충돌로 인한 성능 저하(Negative Transfer)

AI: 대체 모델/접근법

ㅁ 대체 모델/접근법 1. Spiking Neural Networks ㅇ 정의: – 생물학적 뉴런의 발화(spike) 메커니즘을 모사하여 시간에 따라 불연속적인 이벤트로 신호를 처리하는 신경망. ㅇ 특징: – 이벤트 기반 처리로 에너지 효율이 높음. – 시간 정보(Time Dynamics)를 자연스럽게 반영. – 뉴로모픽 하드웨어와 결합 시 저전력 고속 처리 가능. ㅇ 적합한 경우: – 센서에서 이벤트 기반 데이터가 발생하는