지속학습/재학습: Catastrophic Forgetting

ㅁ 지속학습/재학습 ㅇ 정의: 지속학습/재학습은 모델이 새로운 데이터를 학습하면서도 기존에 학습한 내용을 잃지 않도록 설계된 학습 기법을 의미한다. ㅇ 특징: – 데이터가 점진적으로 추가되는 환경에서 유용하다. – 기존 데이터와 새로운 데이터 간의 균형을 유지하는 것이 중요하다. – Catastrophic Forgetting 문제를 해결하기 위한 다양한 접근법이 존재한다. ㅇ 적합한 경우: – 실시간 데이터가 지속적으로 유입되는 시스템. –

지속학습/재학습: Incremental Learning

ㅁ 지속학습/재학습 ㅇ 정의: 기존에 학습된 모델에 새로운 데이터를 추가적으로 학습시키는 방법으로, 모델을 처음부터 다시 학습시키지 않고도 업데이트가 가능한 기법. ㅇ 특징: – 기존 데이터를 모두 저장하지 않아도 학습 가능. – 새로운 데이터에 대해 빠르게 적응할 수 있음. – 모델이 점진적으로 발전하며, 데이터가 지속적으로 유입되는 환경에서 적합. ㅇ 적합한 경우: – 데이터가 점진적으로 추가되는 상황(예:

지속학습/재학습: Continual Learning

ㅁ 지속학습/재학습 ㅇ 정의: 지속학습(Continual Learning)은 새로운 데이터를 학습하면서도 이전에 학습한 내용을 잃지 않고 성능을 유지하는 기계 학습 방법론을 의미함. ㅇ 특징: – 점진적으로 새로운 데이터를 학습하고 기존 모델을 업데이트함. – Catastrophic Forgetting(재난적 망각) 문제를 해결하기 위한 기술적 접근이 포함됨. – 모델이 변화하는 환경에서도 적응할 수 있도록 설계됨. ㅇ 적합한 경우: – 데이터가 점진적으로 수집되는

연합학습: Secure Aggregation

ㅁ 연합학습 ㅇ 정의: 연합학습은 여러 참여자들이 로컬 데이터를 공유하지 않고 모델을 공동으로 학습하는 방법으로, 데이터 프라이버시를 유지하면서 협력적 학습을 가능하게 한다. ㅇ 특징: – 데이터가 중앙 서버로 이동하지 않음. – 각 참여자는 로컬 데이터로 모델 업데이트를 수행하고 이를 서버로 전송. – 서버는 모든 업데이트를 집계하여 글로벌 모델을 생성. ㅇ 적합한 경우: – 민감한 데이터를

프롬프트 엔지니어링: Prompt Tuning

ㅁ 프롬프트 엔지니어링 ㅇ 정의: 주어진 목표를 달성하기 위해 인공지능 모델에 입력으로 제공되는 텍스트를 최적화하는 과정. ㅇ 특징: – 모델의 성능을 향상시키기 위한 간단한 방법. – 추가적인 학습 없이 입력 데이터만 조작하여 결과를 개선. – 주로 자연어 처리(NLP) 모델에서 활용. ㅇ 적합한 경우: – 사전 학습된 모델을 수정하지 않고 특정 작업에 적합하게 만들고자 할 때.

최적화 기법: Weight Decay

ㅁ 최적화 기법 ㅇ 정의: 모델의 과적합을 방지하기 위해 가중치 값에 페널티를 부여하여 손실 함수에 추가하는 정규화 기법. ㅇ 특징: – 손실 함수에 가중치의 제곱합을 추가로 포함시킴. – 과적합 방지와 일반화 성능 향상에 효과적. – 학습률과 함께 조정해야 최적의 성능을 발휘. ㅇ 적합한 경우: – 데이터가 적거나 복잡한 모델을 사용할 때. – 과적합이 발생할 가능성이

최적화 기법: SGD

ㅁ 최적화 기법 ㅇ 정의: 최적화 기법은 머신러닝 모델의 성능을 극대화하기 위해 손실 함수를 최소화하는 알고리즘을 설계하고 적용하는 방법론이다. ㅇ 특징: – 학습 속도와 정확도에 직접적인 영향을 미침. – 다양한 기법이 존재하며, 데이터 특성과 모델 구조에 따라 적합한 기법을 선택해야 함. – 과적합 방지와 일반화 성능 향상을 위해 정규화 기법과 함께 사용되기도 함. ㅇ 적합한

최적화 기법: RMSProp

ㅁ 최적화 기법 ㅇ 정의: 최적화 기법은 머신러닝 모델의 성능을 향상시키기 위해 손실 함수를 최소화하는 알고리즘을 의미한다. ㅇ 특징: – 학습 속도를 높이고 과적합을 방지하는 데 사용됨. – 다양한 기법이 존재하며, 데이터와 모델에 따라 적합한 기법을 선택해야 함. ㅇ 적합한 경우: – 대규모 데이터셋을 처리하는 경우. – 학습 과정에서 손실 함수가 불안정하거나 진동하는 경우. ㅇ

최적화 기법: Adam

{“ㅁ 최적화 기법”: “\n\n ㅇ 정의:\n 최적화 기법은 머신러닝 모델의 손실 함수를 최소화하기 위해 사용하는 알고리즘입니다. 모델 학습의 핵심 요소로, 학습 속도와 성능에 직접적인 영향을 미칩니다.\n\n ㅇ 특징:\n – 학습 속도와 안정성에 영향을 미침.\n – 다양한 데이터셋과 모델 구조에 따라 적합한 기법이 다름.\n – 일반적으로 SGD, Adam, RMSProp 등이 널리 사용됨.\n\n ㅇ 적합한 경우:\n –

불확실성 추정: Calibration

ㅁ 불확실성 추정 ㅇ 정의: 모델이 예측한 확률 값이 실제 결과와 얼마나 일치하는지를 측정하는 과정. ㅇ 특징: – 모델의 신뢰도를 평가하기 위한 중요한 지표. – Calibration이 잘 된 모델은 예측 확률이 실제 관측 빈도와 일치. – Calibration Error(ECE, MCE 등)로 평가 가능. ㅇ 적합한 경우: – 의료 진단, 자율 주행 등 높은 신뢰도가 요구되는 애플리케이션.