설명가능 인공지능(XAI) 핵심기법: SHAP 값

ㅁ 설명가능 인공지능(XAI) 핵심기법 ㅇ 정의: 설명가능 인공지능(XAI)은 AI 모델의 예측 결과를 인간이 이해할 수 있는 방식으로 설명하는 기술을 의미하며, 다양한 핵심 기법들이 포함된다. ㅇ 특징: – 복잡한 AI 모델의 내부 작동 방식을 투명하게 설명. – 신뢰성과 윤리성을 강화하여 AI 활용을 확대. – 모델의 디버깅 및 성능 개선에 도움을 줌. ㅇ 적합한 경우: – 의료,

설명가능 인공지능(XAI) 핵심기법: Class Activation Map

ㅁ 설명가능 인공지능(XAI) 핵심기법 ㅇ 정의: 설명가능 인공지능(XAI)의 핵심기법은 AI 모델의 예측 결과를 사람이 이해할 수 있도록 설명하는 데 초점을 맞춘 기술과 방법론을 의미한다. Class Activation Map(CAM)은 이러한 기법 중 하나로, 이미지 분류 모델에서 특정 클래스에 대한 모델의 주목 영역을 시각적으로 나타낸다. ㅇ 특징: – 모델의 내부 가중치와 활성화 맵을 활용하여 시각적 설명을 제공. –

설명가능 인공지능(XAI) 핵심기법: Local Surrogate

ㅁ 설명가능 인공지능(XAI) 핵심기법 ㅇ 정의: 설명가능 인공지능(XAI) 핵심기법은 인공지능 모델의 예측 결과를 이해하고 해석할 수 있도록 돕는 기술 및 방법론이다. ㅇ 특징: – 복잡한 AI 모델의 블랙박스 특성을 완화. – 사용자 신뢰도 향상. – 규제 준수를 위한 필수 요소. ㅇ 적합한 경우: – 의료, 금융 등 고위험 분야에서 AI 모델을 사용할 때. – 모델의

설명가능 인공지능(XAI) 핵심기법: Global Surrogate

ㅁ 설명가능 인공지능(XAI) 핵심기법 ㅇ 정의: 설명가능 인공지능(XAI)의 핵심 기법으로, 복잡한 모델의 예측을 이해하기 위해 단순한 대체 모델을 사용하여 설명을 제공하는 방법. ㅇ 특징: – 복잡한 모델(예: 딥러닝)의 예측을 설명하기 위해 사용. – 대체 모델은 주로 선형 회귀, 의사결정 트리와 같은 해석 가능한 모델을 사용. – 원래 모델의 전체 구조를 반영하지는 않으며, 예측 결과를 근사적으로

PEFT/Fine-tuning 초기화/설정: 적용 layer 선택

ㅁ PEFT/Fine-tuning 초기화/설정 ㅇ 정의: PEFT(Fine-tuning) 초기화/설정은 사전 학습된 모델을 특정 작업에 맞게 미세 조정하는 과정에서 모델 가중치의 일부를 선택적으로 수정하는 방법을 포함한다. 특히 적용 layer 선택은 모델의 특정 층을 선택하여 조정하는 전략을 말한다. ㅇ 특징: – 모델의 특정 층만 수정하므로 계산량이 줄어들고 학습 시간이 단축된다. – 적용 층 선택에 따라 성능이 크게 달라질 수

PEFT/Fine-tuning 초기화/설정: 학습률

ㅁ PEFT/Fine-tuning 초기화/설정 ㅇ 정의: PEFT(Parameterized Efficient Fine-Tuning)와 Fine-tuning 과정에서 초기화 및 설정 단계에서 중요한 요소로, 모델이 학습 중 가중치를 업데이트하는 속도를 결정하는 하이퍼파라미터임. ㅇ 특징: – 학습률이 너무 크면 학습이 불안정해지고 최적의 가중치를 찾지 못할 수 있음. – 학습률이 너무 작으면 학습 속도가 느려지고 지역 최적점에 빠질 가능성이 높아짐. – 일반적으로 warm-up 스케줄링을 통해

PEFT/Fine-tuning 초기화/설정: A B 행렬

ㅁ PEFT/Fine-tuning 초기화/설정 ㅇ 정의: ㅇ 특징: ㅇ 적합한 경우: ㅇ 시험 함정: ㅇ 시험 대비 “패턴 보기” 예시: ================================ 1. A B 행렬 ㅇ 정의: A B 행렬은 Parameter-Efficient Fine-Tuning(PEFT)에서 사용되는 기법으로, 모델의 전체 가중치를 업데이트하지 않고 특정 부분만 조정하여 효율적으로 미세 조정을 수행하는 방법이다. ㅇ 특징: – A 행렬은 입력 특성을 압축하는 역할을

PEFT/Fine-tuning: rank r

ㅁ PEFT/Fine-tuning ㅇ 정의: – PEFT(Fine-tuning)란 사전 학습된 모델을 특정 작업에 맞게 조정하는 방법으로, 효율적인 학습을 위해 모델의 일부 파라미터만 업데이트하거나 특정 구조를 활용하는 것을 포함합니다. Rank r은 PEFT에서 저차원 표현을 사용하여 모델의 파라미터를 효율적으로 학습시키는 기법 중 하나입니다. ㅇ 특징: – 파라미터 효율성을 극대화하여 학습 속도를 높이고 메모리 사용량을 줄임. – 적은 데이터로도 높은

PEFT/Fine-tuning: Low-rank Adaptation

ㅁ PEFT/Fine-tuning ㅇ 정의: – PEFT(Fine-tuning)란 사전 학습된 모델을 특정 작업에 맞게 조정하는 기법으로, 모델의 일부 파라미터만 조정하거나 추가적인 파라미터를 최소한으로 추가하여 효율성을 높이는 방법을 포함한다. ㅇ 특징: – 기존 모델의 구조를 최대한 유지하면서도 특정 작업에 적합한 성능을 발휘할 수 있다. – 데이터와 연산 자원을 절약할 수 있는 설계가 가능하다. ㅇ 적합한 경우: – 대규모

PEFT/Fine-tuning: Parameter-efficient Fine-tuning

ㅁ PEFT/Fine-tuning ㅇ 정의: – PEFT(Fine-tuning)란 기존의 대형 모델에서 전체 가중치를 업데이트하지 않고, 일부 파라미터만 조정하여 효율적으로 학습을 수행하는 기법을 의미한다. ㅇ 특징: – 전체 모델을 업데이트하지 않아도 되므로 메모리와 계산 자원이 절약된다. – 기존 모델의 성능을 최대한 유지하면서 특정 작업에 맞는 최적화를 수행할 수 있다. – Fine-tuning 과정에서 데이터가 적어도 효과적으로 작동할 수 있다.