Optimizer: Adagrad

ㅁ Optimizer ㅇ 정의: 모델 학습에서 손실 함수를 최소화하기 위해 가중치를 조정하는 알고리즘. ㅇ 특징: 학습 속도를 조절하며, 다양한 유형의 데이터와 모델 구조에 적응 가능. ㅇ 적합한 경우: 딥러닝 모델의 학습 과정에서 손실 감소를 효과적으로 수행해야 할 때. ㅇ 시험 함정: Optimizer의 역할을 단순히 ‘학습률 조정’으로만 오인할 수 있음. ㅇ 시험 대비 “패턴 보기” 예시:

정규화/증강: Warmup

ㅁ 정규화/증강 ㅇ 정의: – 정규화/증강은 모델 학습 시 데이터의 분포를 조정하거나 데이터를 확장하여 학습 성능과 안정성을 높이는 기법을 의미한다. ㅇ 특징: – 데이터의 왜곡을 줄이고 학습 속도를 안정화시킨다. – 다양한 데이터 증강 기법을 통해 일반화 성능을 향상시킨다. ㅇ 적합한 경우: – 데이터가 부족하거나 분포가 불균형한 경우. – 모델 학습 초기 단계의 불안정한 학습 과정을

정규화/증강: OneCycle LR

1. OneCycle LR ㅇ 정의: 학습 과정 중 학습률을 낮은 값에서 시작해 점진적으로 증가시키고, 이후 다시 감소시키는 방식으로 학습 안정화를 도모하는 기법. ㅇ 특징: – 학습 초기에는 작은 학습률로 시작하여 안정적인 학습을 유도. – 중반부에는 학습률을 높여 빠른 수렴을 유도. – 마지막에는 학습률을 낮춰 최적화된 결과를 도출. – 학습률 변화는 삼각 함수 모양의 곡선을 따름.

파운데이션 모델 혁신: Agentic FM

ㅁ 파운데이션 모델 혁신 ㅇ 정의: – 대규모 데이터와 컴퓨팅 자원을 활용하여 범용적인 AI 모델을 개발 및 개선하는 과정. ㅇ 특징: – 다양한 도메인에서 활용 가능하며, 특정 작업에 특화되지 않고 범용성을 지향. – 모델의 크기와 학습 데이터의 양이 성능에 결정적인 영향을 미침. ㅇ 적합한 경우: – 다중 태스크를 처리하거나, 새로운 태스크를 빠르게 적응해야 하는 경우.

파운데이션 모델 혁신: Retrieval-augmented FM

ㅁ 파운데이션 모델 혁신 ㅇ 정의: – 파운데이션 모델 혁신은 대규모 언어 모델(LLM)이나 멀티모달 모델을 기반으로 다양한 문제를 해결하기 위해 새로운 방법론을 개발하거나 기존 한계를 극복하는 기술적 접근을 의미한다. ㅇ 특징: – 대규모 데이터와 고성능 컴퓨팅 자원을 활용하여 학습됨. – 특정 도메인에 특화된 성능을 발휘할 수 있도록 커스터마이징 가능함. – 모델의 일반화 성능과 효율성을 동시에

파운데이션 모델 혁신: Memory-augmented FM

ㅁ 파운데이션 모델 혁신 ㅇ 정의: – 파운데이션 모델 혁신은 대규모 데이터와 연산 자원을 활용하여 범용적인 학습 능력을 가진 모델을 설계하고 발전시키는 과정을 의미한다. ㅇ 특징: – 다양한 작업에 적용 가능한 범용성. – 대규모 데이터와 컴퓨팅 자원 요구. – 학습된 지식을 새로운 문제에 전이 가능. ㅇ 적합한 경우: – 다중 도메인 작업을 통합적으로 처리해야 하는

파운데이션 모델 혁신: Tool-augmented FM

ㅁ 파운데이션 모델 혁신 ㅇ 정의: 대규모 데이터를 기반으로 학습되어 다양한 과업에 일반화된 성능을 발휘하는 모델을 혁신적으로 설계하거나 확장하는 접근 방식. ㅇ 특징: – 데이터와 연산 자원의 효율적 활용. – 다양한 도메인에 적용 가능한 범용적 특성. – 지속적인 학습과 적응 능력. ㅇ 적합한 경우: – 여러 도메인에서 공통적인 문제를 해결해야 하는 경우. – 기존 모델의

파운데이션 모델 혁신: Planning Foundation Model

ㅁ 파운데이션 모델 혁신 ㅇ 정의: – 대규모 데이터와 컴퓨팅 자원을 활용하여 범용적으로 다양한 작업에 적용 가능한 AI 모델을 설계하고 발전시키는 과정. ㅇ 특징: – 광범위한 데이터로 사전 학습된 모델로, 특정 작업에 대해 미세 조정 가능. – 높은 계산 비용과 데이터 품질이 성능에 큰 영향을 미침. – 다양한 도메인에 적용 가능하며, 지속적인 업데이트와 학습이 중요.

파운데이션 모델 혁신: Reasoning Foundation Model

ㅁ 파운데이션 모델 혁신 ㅇ 정의: 다양한 자연어 처리(NLP) 및 컴퓨터 비전(CV) 태스크에 범용적으로 적용 가능한 대규모 사전 학습 모델의 개선과 혁신을 의미함. ㅇ 특징: 대규모 데이터와 연산 자원을 활용하여 사전 학습되며, 특정 태스크에 대한 미세 조정(fine-tuning) 없이도 강력한 성능을 발휘함. ㅇ 적합한 경우: 다양한 태스크를 하나의 모델로 처리하고자 할 때, 범용적인 AI 솔루션이 필요한

파운데이션 모델 혁신: Math Foundation Model

ㅁ 파운데이션 모델 혁신 ㅇ 정의: 대규모 데이터와 연산 자원을 활용하여 다양한 작업에 일반화된 성능을 발휘할 수 있는 거대 AI 모델을 개발하는 접근법. ㅇ 특징: – 대규모 데이터셋을 기반으로 사전 학습. – 다양한 다운스트림 작업에 적응 가능. – 높은 계산 자원 요구. ㅇ 적합한 경우: – 다목적 AI 시스템을 구축하고자 할 때. – 특정 도메인에