ㅁ 프레임워크 ㅇ 정의: 대규모 언어 모델(LLM)을 활용한 애플리케이션 개발을 위한 도구 및 라이브러리 모음. ㅇ 특징: – 데이터 준비, 모델 호출, 결과 처리 등 전체 워크플로우를 단순화. – 다양한 언어모델과의 통합 지원. – 모듈화된 구조로 특정 기능을 선택적으로 사용 가능. ㅇ 적합한 경우: – 대규모 언어모델 기반 애플리케이션을 신속히 개발해야 하는 경우. – 다양한
ㅁ 프레임워크 ㅇ 정의: AI 시스템의 설계, 개발, 배포 및 운영에서 발생할 수 있는 리스크를 체계적으로 관리하기 위한 구조적 접근 방법. ㅇ 특징: – 리스크 식별, 평가, 완화 및 모니터링의 전 과정을 포함. – 다양한 이해관계자와의 협력을 강조. – 유연하고 확장 가능한 구조를 지님. ㅇ 적합한 경우: – AI 시스템의 신뢰성과 안전성을 확보하고자 할 때.
ㅁ 데이터베이스 ㅇ 정의: 데이터베이스는 데이터를 체계적으로 저장하고 관리하는 시스템으로, 다양한 데이터의 검색, 삽입, 삭제, 갱신 등을 효율적으로 처리할 수 있도록 설계됨. ㅇ 특징: 데이터의 무결성, 일관성, 보안성을 보장하며, 대규모 데이터를 효율적으로 처리하고 다중 사용자 환경에서도 안정적인 운영이 가능함. ㅇ 적합한 경우: 대량의 데이터를 저장하고 이를 빠르게 검색하거나 분석해야 하는 경우, 다수의 사용자가 동시에 데이터에
ㅁ 문서화 ㅇ 정의: 문서화는 AI 시스템의 개발 및 운영 과정에서 사용된 데이터, 알고리즘, 모델의 정보를 명확히 기록하여 이해와 검증을 가능하게 하는 과정이다. 이는 시스템의 투명성과 책임성을 높이는 데 기여한다. ㅇ 특징: – 문서화는 데이터 소스, 처리 과정, 모델 설계, 성능 평가 등을 포함한다. – 이해관계자들이 시스템의 한계를 이해할 수 있도록 상세한 정보를 제공한다. –
ㅁ 문서화 ㅇ 정의: AI 시스템 개발 과정에서 데이터셋의 특성과 사용 방법을 체계적으로 기록한 문서를 작성하는 활동. ㅇ 특징: 데이터셋의 출처, 구조, 품질, 사용 제한 사항 등을 포함하여 데이터의 투명성을 높임. 데이터 관련 문제를 사전에 방지하고 재현성을 확보할 수 있음. ㅇ 적합한 경우: 데이터셋을 외부에 공유하거나 협업 프로젝트에서 데이터셋을 사용할 때, 데이터 품질 및 윤리적
ㅁ 워터마킹 ㅇ 정의: – 워터마킹은 디지털 콘텐츠에 식별 정보를 삽입하여 원본을 보호하고 위조를 방지하는 기술이다. ㅇ 특징: – 콘텐츠의 진위 여부를 확인할 수 있으며, 원본과 복제본을 구분하는 데 사용된다. – 디지털 환경에서의 저작권 보호와 신뢰성 유지에 중요한 역할을 한다. ㅇ 적합한 경우: – 저작권 보호가 필수적인 디지털 콘텐츠(예: 이미지, 동영상, 문서 등). – AI
ㅁ 프롬프트 인젝션 ㅇ 정의: 프롬프트 인젝션은 AI 모델의 입력 프롬프트를 조작하여 의도하지 않은 동작을 유발하거나 민감한 정보를 노출시키는 공격 기법이다. ㅇ 특징: – 입력값을 통해 모델의 행동을 변경. – AI 시스템의 신뢰성을 저하시킬 수 있음. – 다양한 변형 기법이 존재. ㅇ 적합한 경우: – AI 시스템의 보안 취약점을 테스트할 때. – 모델의 입력 처리
ㅁ 모델 추출 ㅇ 정의: – 모델 추출은 공격자가 머신러닝 모델의 내부 구조, 하이퍼파라미터, 또는 훈련 데이터를 복제하거나 유사한 모델을 생성하기 위해 사용하는 공격 기법이다. ㅇ 특징: – API 호출을 통해 모델의 입력-출력 관계를 분석하여 원래 모델을 복제. – 모델의 복잡도, 학습 데이터의 민감도에 따라 성공 확률이 달라짐. – 원래 모델과 동일하거나 유사한 성능을 가진
ㅁ 데이터 중독 ㅇ 정의: 데이터 중독은 AI 모델 학습에 사용되는 데이터셋에 악의적인 데이터를 삽입하거나 조작하여 모델의 성능을 저하시키거나 오작동을 유발하는 공격 기법을 의미한다. ㅇ 특징: – 공격자는 데이터셋의 일부를 교묘히 변경하여 모델이 잘못된 패턴을 학습하도록 유도한다. – 학습 데이터의 신뢰성을 낮추며, 모델의 예측 정확도를 의도적으로 떨어뜨릴 수 있다. – 데이터셋의 크기가 클수록 공격이 탐지되기
ㅁ 멤버십 추론 ㅇ 정의: 멤버십 추론은 데이터 샘플이 특정 머신 러닝 모델의 학습 데이터에 포함되었는지 여부를 추론하는 공격 기법이다. ㅇ 특징: – 학습 데이터의 프라이버시를 침해할 수 있다. – 모델의 출력 확률값이나 예측 결과를 활용하여 공격한다. – 데이터의 민감성에 따라 심각한 보안 문제가 될 수 있다. ㅇ 적합한 경우: – 모델이 과적합된 경우. –