모델/시스템 최적화: 가속기 종류

ㅁ 가속기 종류

ㅇ 정의:

ㅇ 특징:

ㅇ 적합한 경우:

ㅇ 시험 함정:

ㅇ 시험 대비 “패턴 보기” 예시:

================================

1. GPU

ㅇ 정의:
– 그래픽 연산을 위해 설계되었지만, 대규모 병렬 연산이 가능하여 딥러닝 학습/추론에 활용되는 범용 연산 장치.

ㅇ 특징:
– 수천 개의 코어로 병렬 연산에 최적화.
– 대규모 행렬/벡터 연산 속도가 빠름.
– 범용성 높음(CUDA, OpenCL 지원).

ㅇ 적합한 경우:
– 대규모 데이터 병렬 처리.
– 딥러닝 CNN, RNN 모델 학습.

ㅇ 시험 함정:
– GPU는 항상 CPU보다 빠르다는 오해 → 작은 데이터셋/단일 스레드 연산에서는 CPU가 더 효율적일 수 있음.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “대규모 병렬 연산에 강점을 가진 범용 연산 장치”
– X: “GPU는 모든 연산에서 CPU보다 빠르다”

================================

2. TPU

ㅇ 정의:
– 구글이 딥러닝 전용으로 설계한 ASIC(Application-Specific Integrated Circuit).

ㅇ 특징:
– 행렬 곱셈, 텐서 연산에 특화.
– 전력 효율 높음.
– 구글 클라우드 환경에서 주로 사용.

ㅇ 적합한 경우:
– TensorFlow 기반 대규모 딥러닝 학습/추론.

ㅇ 시험 함정:
– TPU는 GPU의 한 종류가 아님.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “텐서 연산에 특화된 딥러닝 전용 가속기”
– X: “TPU는 범용 GPU의 한 종류”

================================

3. NPU

ㅇ 정의:
– Neural Processing Unit, 인공지능 신경망 연산 전용 프로세서.

ㅇ 특징:
– AI 추론 속도 최적화.
– 모바일/엣지 디바이스에 내장.
– 저전력, 실시간 처리 가능.

ㅇ 적합한 경우:
– 모바일 기기에서의 이미지/음성 인식.

ㅇ 시험 함정:
– NPU는 GPU보다 항상 빠르다는 보장은 없음.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “모바일 AI 추론 가속을 위한 전용 칩”
– X: “NPU는 학습과 추론 모두에서 GPU보다 우수하다”

================================

4. VPU

ㅇ 정의:
– Vision Processing Unit, 영상/이미지 처리에 특화된 프로세서.

ㅇ 특징:
– 컴퓨터 비전 알고리즘 최적화.
– 저전력, 엣지 디바이스에서 사용.
– 카메라, 드론, IoT 기기 등에 적용.

ㅇ 적합한 경우:
– 실시간 영상 분석, 객체 인식.

ㅇ 시험 함정:
– VPU는 범용 연산에 적합하지 않음.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “영상 처리에 특화된 저전력 가속기”
– X: “VPU는 모든 형태의 데이터 처리에 최적화되어 있다”

================================

5. FPGA

ㅇ 정의:
– Field Programmable Gate Array, 사용자가 하드웨어 회로를 재구성할 수 있는 반도체 장치.

ㅇ 특징:
– 높은 유연성과 맞춤형 병렬 처리.
– 하드웨어 수준 최적화 가능.
– 초기 개발 복잡도 높음.

ㅇ 적합한 경우:
– 특수 알고리즘 가속.
– 저지연 처리 요구 환경.

ㅇ 시험 함정:
– FPGA는 CPU/GPU처럼 범용 프로그래밍이 간단하지 않음.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “하드웨어 회로를 재구성하여 특정 연산 가속”
– X: “FPGA는 소프트웨어 코드만 변경하여 동작을 바꿀 수 있다”

ㅁ 추가 학습 내용

정리 내용:

1. 전력 효율 비교
– GPU, TPU, NPU, VPU, FPGA의 Watt당 연산 성능 비교표를 준비하여 각 장치의 효율 특성을 숙지.
– 전력 대비 성능 차이를 이해하면 상황별 최적 가속기 선택 가능.

2. 메모리 특성
– 각 가속기의 메모리 대역폭, 지연 시간(latency), 처리량(throughput) 특성을 파악.
– 대역폭은 데이터 전송 속도, 지연 시간은 응답 속도, 처리량은 단위 시간당 처리 가능한 연산량.

3. 하드웨어 가속기 선택 고려 요소
– 전력 소모
– 연산 정밀도(FP32, FP16, INT8 등 지원 여부)
– 개발 생태계(CUDA, ROCm, Vitis, OpenVINO 등) 지원 여부 및 성숙도

4. FPGA와 ASIC의 차이
– FPGA: 재구성 가능, 다양한 용도에 맞게 하드웨어 회로 변경 가능
– ASIC: 특정 용도에 최적화된 고정 설계, 재구성 불가, 성능·전력 효율 우수

5. 엣지 AI vs 클라우드 AI
– 엣지 AI: NPU, VPU 활용 → 저전력, 실시간 처리, 네트워크 연결 불필요
– 클라우드 AI: GPU, TPU 활용 → 대규모 연산, 고성능, 대용량 데이터 처리

6. 시험 함정 주의
– 가속기 분류 혼동 방지: TPU는 GPU 계열이 아님, 목적과 구조가 다름
– 각 가속기의 대표 용도와 특성을 정확히 기억

시험 대비 체크리스트:

[ ] GPU, TPU, NPU, VPU, FPGA의 Watt당 연산 성능 비교표 암기
[ ] 각 가속기의 메모리 대역폭, 지연 시간, 처리량 정의와 특성 숙지
[ ] 전력 소모, 연산 정밀도, 개발 생태계의 의미와 예시 기억
[ ] FPGA와 ASIC의 차이점 명확히 구분
[ ] 엣지 AI와 클라우드 AI에서 주로 사용하는 가속기와 이유 이해
[ ] TPU, GPU, NPU, VPU, FPGA의 분류를 혼동 없이 구분 가능
[ ] 각 가속기의 대표적인 활용 사례 숙지

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*