AI 시스템 구축: 신형 칩/플랫폼
ㅁ 신형 칩/플랫폼
1. NPU
ㅇ 정의:
– Neural Processing Unit의 약자로, 인공지능 연산(특히 딥러닝 추론)을 가속하기 위해 설계된 전용 프로세서.
ㅇ 특징:
– 행렬 연산 및 병렬 처리에 최적화.
– CPU, GPU 대비 전력 소모가 적고, 모바일/엣지 환경에 적합.
ㅇ 적합한 경우:
– 스마트폰, IoT 디바이스에서 실시간 AI 추론이 필요한 경우.
– 전력 효율이 중요한 배터리 기반 장치.
ㅇ 시험 함정:
– GPU와 혼동하여 학습/추론 모두에 최적이라고 단정하는 경우.
– NPU는 주로 추론에 특화됨.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “NPU는 저전력 환경에서 AI 추론을 가속한다.”
– X: “NPU는 모든 AI 학습 연산에 최적화되어 있다.”
================================
2. VPU
ㅇ 정의:
– Vision Processing Unit의 약자로, 영상·이미지 처리와 관련된 AI 연산을 가속하는 전용 칩.
ㅇ 특징:
– 컴퓨터 비전 알고리즘에 최적화.
– 저전력으로 고해상도 영상 분석 가능.
ㅇ 적합한 경우:
– 드론, CCTV, 로봇 비전 시스템.
ㅇ 시험 함정:
– GPU와 동일하게 범용 AI 연산에 최적이라고 오해.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “VPU는 영상 처리에 특화된 AI 가속기이다.”
– X: “VPU는 자연어 처리에 최적화되어 있다.”
================================
3. AI Server
ㅇ 정의:
– 대규모 AI 모델 학습 및 추론을 위해 GPU, TPU, NPU 등을 대량 탑재한 서버.
ㅇ 특징:
– 고성능 병렬 연산 지원.
– 대규모 데이터 처리와 모델 학습에 적합.
ㅇ 적합한 경우:
– 클라우드 AI 서비스, 대규모 딥러닝 학습.
ㅇ 시험 함정:
– AI Server가 반드시 GPU만 탑재한다고 단정.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “AI Server는 대규모 AI 연산을 위해 특수 하드웨어를 다수 탑재한다.”
– X: “AI Server는 CPU만으로 구성된다.”
================================
4. AI PC
ㅇ 정의:
– AI 연산 기능(NPU 등)을 내장하여 로컬에서 AI 추론 및 일부 학습이 가능한 개인용 컴퓨터.
ㅇ 특징:
– 클라우드 의존도 감소.
– 오프라인 환경에서도 AI 기능 제공.
ㅇ 적합한 경우:
– 개인용 AI 애플리케이션, 개인정보 보호가 중요한 환경.
ㅇ 시험 함정:
– AI PC가 일반 PC보다 항상 더 빠르다고 단정.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “AI PC는 로컬 AI 연산을 지원한다.”
– X: “AI PC는 반드시 인터넷 연결이 필요하다.”
================================
5. HBM
ㅇ 정의:
– High Bandwidth Memory의 약자로, 고대역폭·저전력 메모리 기술.
ㅇ 특징:
– 3D 적층 구조를 통해 대역폭 극대화.
– GPU, AI 가속기 등에 사용.
ㅇ 적합한 경우:
– 대규모 데이터 병렬 연산, AI 학습.
ㅇ 시험 함정:
– HBM이 저장장치(SSD 등)와 동일하다고 오해.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “HBM은 AI 연산에 필요한 고속 메모리 대역폭을 제공한다.”
– X: “HBM은 대용량 데이터 영구 저장을 위해 사용된다.”
================================
6. Edge AI Accelerator
ㅇ 정의:
– 엣지 디바이스에서 AI 연산을 가속하기 위한 전용 하드웨어.
ㅇ 특징:
– 저전력, 실시간 처리 지원.
– 네트워크 지연 최소화.
ㅇ 적합한 경우:
– 자율주행차, 스마트 카메라, 산업 IoT.
ㅇ 시험 함정:
– 클라우드 AI 가속기와 혼동.
ㅇ 시험 대비 “패턴 보기” 예시:
– O: “Edge AI Accelerator는 현장에서 AI 추론을 수행한다.”
– X: “Edge AI Accelerator는 반드시 데이터센터에서만 사용된다.”
ㅁ 추가 학습 내용
학습 정리
1. NPU(Neural Processing Unit)
– 전용 AI 가속기
– 주로 일반적인 딥러닝 연산(행렬 연산, 신경망 추론 등)에 최적화
– 예시: 삼성 Exynos NPU, Huawei Ascend
2. VPU(Vision Processing Unit)
– 전용 AI 가속기
– 영상·이미지 처리에 특화 (컴퓨터 비전, 영상 인식 등)
– 예시: Intel Movidius
3. AI Server vs AI PC
– AI Server: 데이터센터 환경, 대규모 데이터 처리, 높은 성능과 확장성, 다수의 GPU/TPU 장착 가능
– AI PC: 개인용 환경, 중소규모 AI 작업, 제한된 확장성, 전력·공간 제약
4. HBM(High Bandwidth Memory)
– 고대역폭 메모리 기술
– 저장장치가 아님
– GPU/TPU 등과 함께 사용하여 메모리 병목 현상 완화
– 예시: HBM2, HBM3
5. Edge AI Accelerator
– 네트워크 지연과 보안 문제를 줄이기 위해 로컬(엣지)에서 AI 연산 처리
– 전력 효율과 실시간 처리 능력이 핵심
– 예시: NVIDIA Jetson, Google Coral
시험 대비 체크리스트
– NPU와 VPU의 처리 대상 데이터 차이를 구분할 수 있는가?
– AI Server와 AI PC의 배치 환경, 성능, 확장성 차이를 설명할 수 있는가?
– HBM의 정의와 역할, 저장장치와의 차이를 명확히 알고 있는가?
– Edge AI Accelerator의 목적(지연 감소, 보안 강화)과 핵심 특성(전력 효율)을 설명할 수 있는가?
– 각 용어의 약자(풀네임)를 정확히 암기했는가?
– 대표적인 하드웨어 예시를 매칭할 수 있는가? (예: NVIDIA Jetson → Edge AI, Intel Movidius → VPU)
– 각 기술의 장점과 단점을 간단히 비교할 수 있는가?
– 실제 적용 사례를 하나 이상 제시할 수 있는가?