AI: 최적화 하이퍼파라미터 튜닝 – Acquisition Function

ㅁ 최적화 하이퍼파라미터 튜닝

ㅇ 정의:
– 머신러닝/베이지안 최적화에서 다음 실험할 하이퍼파라미터 조합을 선택하기 위해 사용하는 함수.
– 탐색(exploration)과 활용(exploitation) 간 균형을 조절하여 최적값을 효율적으로 찾도록 함.

ㅇ 특징:
– 주로 확률적 모델(예: Gaussian Process)의 예측 분포를 기반으로 계산.
– 대표적으로 Expected Improvement(EI), Probability of Improvement(PI), Upper Confidence Bound(UCB) 등이 있음.
– 계산량이 적고, 기존 관측 데이터를 통해 효율적으로 후보를 제안.

ㅇ 적합한 경우:
– 평가 비용이 높은 모델 학습(예: 대규모 딥러닝)에서 시도 횟수를 줄이고자 할 때.
– 불확실성이 큰 영역과 이미 좋은 성능을 보이는 영역을 균형 있게 탐색해야 할 때.

ㅇ 시험 함정:
– Acquisition Function 자체가 모델을 학습하는 것이 아니라, 다음 시도할 파라미터를 제안하는 역할임을 혼동.
– 탐색과 활용의 균형을 무조건 50:50으로 맞추는 것이 아님.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “Acquisition Function은 베이지안 최적화에서 다음 탐색 지점을 결정하는 역할을 한다.”
– X: “Acquisition Function은 모델의 파라미터를 직접 최적화한다.”

ㅁ 추가 학습 내용

Acquisition Function은 베이지안 최적화에서 다음 탐색 지점을 결정하기 위해 사용하는 함수로, 주어진 확률 모델(예: 가우시안 프로세스)의 예측 평균과 불확실성을 활용하여 탐색과 활용의 균형을 조절한다. 주요 방식은 다음과 같다.

1. Expected Improvement (EI)
– 수학적 정의: EI(x) = E[max(0, f(x) – f(x_best))]
– 현재 최적값 f(x_best) 대비 기대 성능 향상량의 기댓값을 계산하여 이를 최대화하는 지점을 선택
– 장점: 향상 가능성과 향상 크기를 모두 고려
– 단점: 계산이 다소 복잡하며, 모델의 불확실성 추정이 부정확하면 성능 저하 가능

2. Probability of Improvement (PI)
– 수학적 정의: PI(x) = P(f(x) ≥ f(x_best) + ξ)
– 현재 최적값을 넘길 확률을 기반으로 탐색
– 장점: 계산이 단순하고 직관적
– 단점: 향상의 크기는 고려하지 않아 작은 개선에도 과도한 선택 가능

3. Upper Confidence Bound (UCB)
– 수학적 정의: UCB(x) = μ(x) + κ * σ(x)
(μ: 예측 평균, σ: 표준편차, κ: 탐색-활용 균형 조절 파라미터)
– 평균 예측값과 불확실성을 조합하여 탐색을 유도
– 장점: 탐색과 활용의 균형을 파라미터로 조절 가능
– 단점: κ 값 설정에 따라 성능이 크게 달라질 수 있음

각 방식 비교
– EI: 개선의 크기와 가능성을 모두 고려, 성능 최적화를 중시할 때 유리
– PI: 빠른 계산과 단순성, 초기 탐색이나 계산 자원이 제한된 경우 유리
– UCB: 불확실성이 큰 영역을 적극 탐색, 전역 탐색에 유리

베이지안 최적화와 Random Search, Grid Search 비교
– Grid Search: 모든 조합을 탐색, 계산량이 매우 많음, 차원이 높을수록 비효율적
– Random Search: 무작위 샘플링으로 탐색, 고차원 문제에서 Grid Search보다 효율적이나 탐색 효율이 낮을 수 있음
– 베이지안 최적화: 이전 탐색 결과를 기반으로 모델을 업데이트하며 효율적으로 최적값을 탐색, 적은 평가 횟수로도 좋은 성능 가능, 계산 자원이 제한된 상황에서 특히 유리

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*