AI 모델 개발: 기법 – Self-consistency
ㅁ 기법
ㅇ 정의:
여러 개의 추론 경로를 생성한 후, 그 결과를 비교하여 가장 일관성이 높은 답을 선택하는 추론 최적화 기법. 주로 LLM(대규모 언어 모델)에서 복잡한 문제 해결 시 사용됨.
ㅇ 특징:
– 단일 추론 경로 의존 대신 다수의 reasoning chain을 생성
– 확률적으로 다양한 답변을 생성하고, 다수결 또는 통계적 방법으로 최종 답 결정
– 복잡한 수학 문제, 논리 퍼즐 등에서 정확도를 향상
ㅇ 적합한 경우:
– 정답이 하나로 수렴되지만 추론 경로가 다양할 수 있는 문제
– 단일 경로 추론 시 오류 가능성이 높은 문제
– 모델이 불확실성을 내포하는 복잡한 질의
ㅇ 시험 함정:
– Self-consistency는 단순히 여러 번 답을 생성하는 것이 아니라 ‘다양한 reasoning 경로’를 생성하는 과정이 포함됨
– 무조건 속도를 향상시키는 기법이 아님 (오히려 연산량 증가 가능)
– 정답이 여러 개인 경우에는 적합하지 않을 수 있음
ㅇ 시험 대비 “패턴 보기” 예시:
O: “Self-consistency는 다양한 추론 경로를 생성하여 다수결로 최종 답을 선택한다.”
X: “Self-consistency는 하나의 추론 경로를 반복 실행하여 확률을 높인다.”
ㅁ 추가 학습 내용
Self-consistency 기법과 Chain-of-Thought(CoT)의 차이점은 다음과 같이 정리할 수 있다.
Chain-of-Thought(CoT)는 한 번의 추론 경로를 명시적으로 표현하는 방식으로, 문제 해결 과정을 단계별로 서술하여 답을 도출한다.
Self-consistency는 다양한 추론 경로를 생성한 뒤, 각 경로에서 나온 결과를 통계적으로 집계하여 최종 답을 결정한다. 여기서 핵심 키워드는 ‘다양한 reasoning 경로’와 ‘다수결 또는 통계적 집계’이다.
Self-consistency는 샘플링 기반 접근을 전제로 하며, temperature 값을 0보다 크게 설정하여 다양한 답변을 생성한다. 이는 deterministic decoding(예: greedy search)처럼 항상 동일한 경로와 답을 내는 방식과 구분된다.