AI 모델 개발: 대규모 모델 활용 – 프롬프트 엔지니어링
ㅁ 대규모 모델 활용
ㅇ 정의:
대규모 언어모델(LLM)이나 멀티모달 모델에 원하는 출력을 얻기 위해 입력 문장을 설계·최적화하는 기법.
ㅇ 특징:
– 모델의 파라미터를 변경하지 않고도 출력 품질을 개선 가능
– 문장 구조, 맥락 제공, 예시 포함 여부에 따라 결과가 크게 달라짐
– Zero-shot, Few-shot, Chain-of-Thought 등 다양한 패턴 존재
ㅇ 적합한 경우:
– 모델 재학습이 어렵거나 비용이 큰 경우
– 빠른 프로토타입 생성 및 다양한 출력 비교가 필요한 경우
ㅇ 시험 함정:
– 프롬프트 엔지니어링은 모델 학습 방법이 아니라는 점 혼동
– 하이퍼파라미터 튜닝과 동일시하는 오류
– 단순 질의 입력과 전략적 프롬프트 설계의 차이를 구분 못하는 경우
ㅇ 시험 대비 “패턴 보기” 예시:
O: “모델의 파라미터 변경 없이 출력 품질을 개선하는 방법이다.”
X: “모델을 재학습하여 성능을 높이는 방법이다.”
================================
1. 프롬프트 엔지니어링
ㅇ 정의:
대규모 언어모델에 대해 원하는 답변을 유도하기 위해 입력 문장을 체계적으로 설계하는 기술.
ㅇ 특징:
– 질문의 맥락, 예시, 지시문 등을 조합하여 응답 방향 제어
– 단어 선택과 문장 구조가 결과 품질에 큰 영향
– 반복적 실험과 수정 과정을 통해 최적화
ㅇ 적합한 경우:
– LLM 기반 서비스 초기 설계 단계
– 다양한 답변 후보를 빠르게 생성·평가할 때
ㅇ 시험 함정:
– 프롬프트 엔지니어링을 데이터 전처리 기법으로 오해
– 모델 파라미터 조정과 혼동
– Chain-of-Thought를 모델 내부 가중치 변경으로 착각
ㅇ 시험 대비 “패턴 보기” 예시:
O: “질문과 지시문을 조합하여 원하는 출력 방향을 제어한다.”
X: “모델의 학습 데이터를 변경하여 응답 품질을 높인다.”
ㅁ 추가 학습 내용
프롬프트 엔지니어링의 세부 기법은 다음과 같다.
Zero-shot Prompting은 사전 예시 없이 지시문만 제공하는 방식이다.
Few-shot Prompting은 몇 가지 예시를 포함하여 모델이 패턴을 학습하도록 돕는 방식이다.
Chain-of-Thought는 중간 추론 과정을 유도하여 복잡한 문제 해결에 활용된다.
Role Prompting은 모델에 특정 역할을 부여해 해당 관점에서 응답하도록 하는 기법이다.
Self-consistency는 여러 응답을 생성한 뒤 최적의 결과를 선택하는 방법이다.
프롬프트 엔지니어링은 모델의 한계와 편향을 완전히 제거할 수 없으며, 보안 측면에서 Prompt Injection 공격 가능성도 존재한다.
실무에서는 프롬프트 토큰 수, 비용, 응답 지연 시간을 고려해야 하며, 멀티모달 모델에서는 텍스트뿐 아니라 이미지와 음성 입력 설계도 포함될 수 있다.