카테고리 없음 / / 2022. 7. 26.

인공지능 분야에서의 반도체 경쟁

인공지능 칩 경쟁의 시작

 

인공지능 칩 지배 경쟁 인공지능 프레임워크는 크게 세 가지 계층으로 특징지어질 수 있다. 인프라 계층은 기술 계층의 감지 및 인지 계산 기능을 지원하는 핵심 AI 칩과 빅데이터를 포함한다. 애플리케이션 레벨이 정점에 위치하여 자율주행, 스마트 로봇 공학, 스마트 보안 및 가상 지원과 같은 서비스를 제공한다. AI 칩은 AI 기술 체인의 핵심을 이루며, 특히 심층 신경망(DNN)의 경우 AI 알고리즘 처리의 핵심이다. "깊이"는 신경망 모델의 계층과 노드 수를 의미한다. 수년간 계층 간 복잡성과 노드 수는 기하급수적으로 증가했다. 이것은 계산에 중요한 과제를 제시한다. 기존의 중앙 처리 장치(CPU)는 특히 규칙 기반인 경우 일반적인 워크로드에 탁월한다. 그러나 CPU는 더 이상 AI 알고리즘에 필요한 병렬화를 따라갈 수 없다.

 

평행성 문제를 해결하는 두 가지 주요 방법이 있다. 하나는 기존 계산 아키텍처를 기반으로 전용 가속기를 추가하는 것이다. 다른 하나는 인간 두뇌의 신경망을 시뮬레이션하는 새로운 아키텍처를 만들기 위해 완전히 재개발하는 것이다. 후자의 접근법은 아직 개발 초기 단계에 있으며 상업적 롤아웃에 적합하지 않다. 따라서 AI 가속기를 추가하는 것이 주요 방법이 될 것이다. 가속에는 GPU, 필드 프로그래머블 게이트 어레이(FPGA), 애플리케이션별 집적회로(ASIC)를 포함한 주요 칩과 TPU, NPU, VPU, BPU 등을 포함한 다양한 유형의 AI 칩을 사용할 수 있다. 각자 장단점이 있다. 게임과 같은 그래픽 집약적인 작업을 처리하는 데 사용되는 GPU는 병렬화를 염두에 두고 구축된다. GPU는 병렬화가 많이 필요한 딥러닝 AI 알고리즘에 적합한 매우 높은 성능을 갖고 있다. 이 새로운 역할은 GPU를 AI 하드웨어의 훌륭한 선택으로 만든다. GPU는 현재 AI 교육을 위한 클라우드와 데이터 센터에서 널리 사용되고 있다. 그들은 또한 자동차와 보안 분야에서도 사용된다. GPU는 현재 가장 널리 사용되고 가장 유연한 AI 칩이다. 한편, FPGA는 자체 요구 사항에 따라 재프로그래밍을 원하는 고객에게 적합한 프로그래밍 가능한 배열이다. FPGA는 개발 사이클(ASIC에 비해)이 빠르고 전력 요구량이 낮은 것이 특징이다. 그러나 유연성이 있기 때문에 상대적으로 비용이 많이 든다. FPGA는 특히 AI 알고리즘이 확정되지 않은 경우 효율성과 유연성 사이의 좋은 절충안으로 볼 수 있다. 이를 통해 공급업체는 ASIC 접근 방식의 비용과 잠재적 기술 노후화를 방지하면서 애플리케이션에 맞게 맞춤형 칩을 최적화할 수 있다. 반면, ASIC AI 칩은 AI 애플리케이션을 위한 전용 아키텍처를 가지고 있다. ASIC 기반 AI 칩은 TPU, NPU, VPU, BPU 등 다양한 종류가 있다. 이러한 모든 것은 높은 효율성과 성능, CPU의 유연성을 갖춘 다양하고 컴퓨터 집약적인 규칙 기반 워크로드를 목표로 한다. 일반적으로 ASIC AI 칩은 GPU나 FPGA에 비해 효율이 높고 다이 크기가 작을 뿐만 아니라 전력 소비도 적다. 그러나 ASIC 칩의 개발 주기가 길고 유연성이 떨어지면서 상용화가 더뎌졌다.

 

딥 러닝에는 훈련과 추론이라는 두 가지 AI 배포가 있다. AI는 빅 데이터를 신경망 모델을 "훈련"하기 위한 기반으로 활용하고, 훈련 데이터 세트를 사용하여 이러한 새롭게 훈련된 모델을 얻는다. 그런 다음, 새롭게 훈련된 모델은 결론을 도출하기 위해 새로운 데이터 세트에서 "추론"할 수 있는 새로운 기능으로 무장된다. 훈련 단계는 거대한 데이터 세트를 신경망 모델에 적용해야 하기 때문에 엄청난 계산력이 필요하다. 이를 위해서는 병렬 성능이 향상된 고급 서버가 크고 다양하며 병렬 데이터 세트를 처리할 수 있어야 한다. 따라서 이 단계는 일반적으로 클라우드의 하드웨어를 통해 수행된다. 반면에 추론 단계는 클라우드 또는 에지의 장치(제품)에서 처리할 수 있다. 훈련 칩에 비해 추론 칩은 전력 사용량, 대기 시간 및 비용을 더 신중하게 고려해야 한다.

 

AI 칩의 혁신은 이제 시작되었고, 공급업체들은 가속에 대해 다른 접근 방식을 취했다. 예를 들어, 구글은 ASIC 경로를 택한 반면 마이크로소프트는 FPGA 사용하여 비교할 있고 때로는 나은 결과를 얻을 있다는 것을 입증했다. 한편, Xilinx, Baidu Amazon 모두 FPGA 채택에 대한 전통적인 장벽을 낮추기 위해 노력하고 있다.

  • 네이버 블로그 공유
  • 네이버 밴드 공유
  • 페이스북 공유
  • 카카오스토리 공유