컴퓨터의 두뇌라고 통칭하는 중앙처리장치(CPU)는 프로그램을 기동하고 실행하는 일을 한다. 프로그램은 컴퓨터 메모리에 저장된 일련의 명령어 처리순서다. CPU는 명령에 따라서 CD, DVD, USB 드라이브 등과 같은 주변 장치로부터 대용량의 데이터를 읽어 들여 복잡한 계산을 처리한 다음에 다시 주변장치에 돌려보낸다. 이 모든 일들을 순서대로 매우 빠르게 처리하지만 동시에 여러 가지 일들을 처리하지 못하는 단점이 있다. 특히 이미지를 모니터에 그리는 일처럼 단순 작업을 무수히 반복해야 하는 경우엔 CPU는 의미 없는 전후처리에 시간을 허비한다. 이를 개선하기 위해 개발한 칩이 고성능그래픽처리장치(GPU)이다. GPU는 이미지 출력속도를 높이기 위해 메모리를 신속하게 조작하고 변경하는 칩이다. CPU처럼 전후처리 과정이 없이 대용량의 이미지 데이터를 병렬로 처리하므로 그래픽 처리속도가 월등히 빠르다. 컴퓨터가 일처리 순서 등 중요한 명령은 CPU가 맡고, 이미지 처리와 같은 단순작업은 GPU에 맡기면 이미지 처리속도가 100배 이상 빨라지고 소비전력도 크게 낮출 수 있다. 컴퓨터가 점차 이미지나 영상처리 기능이 많아지면서 대량의 데이터를 동시에 처리하는 GPU의 역할이 중요해졌고 기계학습용 칩 시장은 엔비디아(Nvidia)의 GPU가 압도적으로 지배해 왔다. GPU가 대량의 데이터 처리가 필요한 기계학습에 적합하기 때문이다.

 

그래픽 가속처리가 슈퍼컴퓨터의 성능을 좌우한다

실제로 지난 10여년간 슈퍼컴퓨터의 성능은 그래픽가속기가 추가되면서 더욱 발전해 왔다. 2017년도 11월에 발표한 세계 슈퍼컴퓨터 500순위에 의하면 총 102개 시스템이 가속기·코 프로세서 기술을 사용하고 있다. 이 중 86개가 엔비디아 GPU를 사용하고 5개는 PEZY 가속기를 사용한다. 기존 시스템에 그래픽 가속기를 추가 설치해도 성능이 크게 향상된다. 실제로 스위스 국립슈퍼컴퓨틴세터(CSCS)에 설치된 Cray XC50 Piz Daint는 엔비디아 테슬라 P100 GPU를 업그레이드한 결과 9.77 페타플롭스에서 19.59 페타플롭스로 계산속도가 두 배 이상 향상되었다.

지난 몇 년 동안 심층학습(Deep Learning)을 이용한 인공지능(AI) 기술이 폭풍처럼 전 산업계에 들이닥쳤다. 심층학습 모델은 엄청난 양의 데이터를 처리할 능력이 필요하며 현재 CPU나 GPU칩이 처리할 수 있는 한계를 뛰어 넘기도 한다. 그렇기 때문에 거대 기업에서부터 벤처 기업에 이르기까지 반도체 회사들은 새로운 AI 칩을 개발하기 위한 경쟁에 몰두한다. AI 칩은 CPU나 GPU를 넘어서 컴퓨터 구축 방식조차 근본적으로 바꿀 수 있다고 본다.

구글의 자매회사인 딥마인드(DeepMind)가 개발한 인공지능 바둑 선수 알파고(AlphaGo)가 프로기사 이세돌과 바둑대국을 치를 때 사용했던 슈퍼컴퓨터는 CPU 1202개와 GPU 176개로 이뤄진 분산컴퓨팅 시스템으로 알려졌다. 하지만 후에 이밖에도 기계학습을 전용으로 처리하는 TPU(Tensor Processing Unit) 칩이 슈퍼컴퓨터에 채용됐다고 확인됐다. 알파벳이 설계한 이 칩은 인공지능 알고리즘용으로 설계한 집적회로(ASIC)로 슈퍼컴퓨터에 적용한 최초의 AI 칩이다. 구글 측 발표자료에 의하면 TPU는 CPU나 GPU보다 15~30배 일처리가 빠르고 에너지 효율은 30~80배 향상된다고 한다. 구글은 데이터 패턴을 해독하는 과정에서 기계 학습을 활용하는데 음성 인식, 텍스트 번역 및 검색 순위 결정 등을 수행하는 데 AI 칩을 도입해 컴퓨팅 시간과 비용을 크게 줄였다고 한다. TPU칩 4개씩 묶어서 디바이스를 만들고 64개의 디바이스를 데이터센터에 있는 작은 캐비닛에 집어넣어 클라우드 TPU를 만들었다. 구글이 개발한 클라우드 TPU는 모든 구글 비즈니스를 지원하며 외부 기업에 클라우드 서비스로도 제공한다. 구글의 클라우드 서비스는 텐서플로우(TensorFlow) AI 소프트웨어로 앱 개발이 쉽다는 장점을 부각해 클라우드 서비스 시장에서 경쟁력을 높일 심산이다. 시너지 리서치 그룹 (Synergy Research Group)의 추정에 따르면 구글의 클라우드 비즈니스는 작년에 80% 이상 성장했다. 아직은 시장 점유율이 아마존 웹 서비스, 아이비엠(IBM)에 이어 3번째다. 클라우드 TPU는 다른 클라우드 서비스 업체에 판매하지 않고 있다.

 

AI 칩이 컴퓨터 성능을 좌우하게 되었다

구글의 AI칩 도입은 다른 경쟁기업들에게도 클라우드 AI칩을 도입하는 계기가 됐다. AI 플랫폼을 운영하고 있는 마이크로소프트는 이미 아쥬어(Azure) 소프트웨어를 통해 인공지능 클라우드 서비스를 할 뿐만 아니라 CPU와 GPU 외에도 FPGA(Field-Progra㎜able Gate Arrays)라는 칩을 사용하고 있다. 미국 국회도서관에 소장된 3800만권의 장서를 76초 만에 모두 번역해낸다고 주장한다. 엔비디아는 DGX-1이라는 딥러닝 전용 슈퍼컴퓨터를 내놓았다. 하드웨어와 딥 러닝 소프트웨어 그리고 개발 도구를 완전 통합해 주요 분석 애플리케이션을 단시간에 처리할 수 있다고 설명한다. 더 많은 데이터를 시각화하고, 딥 러닝을 업무를 가속하고, 정교한 신경망을 구축할 수 있어 기존의 GPU 가속 솔루션보다 12배 빠르게 앱을 처리한다고 소개한다. 인텔은 다양한 기업들을 인수함으로써 슈퍼컴퓨터에서 모바일 칩에 이르기까지 AI기술이 작동하는 일은 모두 다 AI 칩으로 해보겠다는 의도를 보이고 있다. 알테라(Altera)를 인수해서 FPGA칩을 생산하고 있고, 너바나(Nervana)를 인수해서 엔비디아가 지배하고 있는 GPU 영역을 대체하고자 한다. 모비듀스(Movidius) 인수는 컴퓨터 시각지능에 관련된 기술을 확보하려는 포석이다. 모빌아이(Mobileye) 인수는 자율자동차 시장에 진입하려는 노력이다. 사프론(Saffron) 인수는 금융시장을 인공지능으로 점령하겠다는 의지이다. 페이스북(Facebook)은 음성 및 텍스트 번역, 사진 분류 및 실시간 비디오 분류와 같은 서비스를 위해 인공지능(AI)을 사용하고 있다. 신경망 학습훈련을 가속시키기 위해 차세대 GPU 서버인 빅배신(Big Basin)을 자체적으로 만들었다.

AI 칩 전쟁은 모바일 AI 칩으로 빠르게 번지고 있다. 엔비디아는 최근 뮌헨에서 진행된 완전 자율주행자동차용으로 개발된 신형 인공지능컴퓨터를 공개했다. 코드명 페가수스(Pegasus)인 이 새로운 시스템은 레벨5 자율주행 차량의 처리를 위해 엔비디아 드라이브 PX(NVIDIA DRIVE PX) AI 컴퓨팅 플랫폼을 확장한 버전인데 초당 320조번의 연산이 가능해 이전 버전보다 10배 이상의 성능을 제공한다고 소개했다. 테슬라는 자율주행자동차용 칩으로 엔비디아의 GPU를 대체할 새로운 AI칩을 AMD와 협력해 개발 중이다. 모빌아이를 인수한 인텔은 알파벳의 웨이모(Waymo)와 기술협력 중이다. 자율자동차용 AI칩 시장은 앞으로 크게 확장될 분야로 칩 제작사들이 각축을 이룰 것으로 판단된다.

 

AI 칩 전쟁이 벌어지고 있다

자동차보다 더 큰 시장은 스마트폰 시장과 VR·AR(가상현실·증강현실) 시장이다. 스마트폰, 노트북 및 데스크톱에서 사용되는 일반 CPU는 기계 학습의 요구에 적합하지 않으며 서비스가 느리고 배터리 소모량이 많다. AI 알고리즘은 컴퓨터에서 작지만 매우 많은 계산을 매우 빠르게 수행할 것을 요구하는데 소수의 CPU 코어론 감당할 수 없다. 그래서 GPU를 함께 채용해 왔다. GPU는 원래 비디오 게임 그래픽을 렌더링하기 위해 설계되었으며, 작은 계산을 동시에 많이 할 수 있도록 CPU와 함께 SoC에 설계해준다. 하지만 스마트폰 내에 수천 개의 GPU를 설치하기엔 공간이 좁고 발열 문제가 생긴다. 모바일에선 GPU 대안으로 AI 칩을 생각하는 이유는 GPU만으론 효율적이지 않은 부분을 보완하기 위해서이다. 현재는 스마트폰에서 취급하는 AI작업은 클라우드 컴퓨터로 데이터를 보내서 처리하고 결과를 되돌려 받는다. 예를 들어 구글 포토는 사진작가처럼 풍경사진을 예술적으로 자르고 편집해준다. 사진을 자동으로 분류하고 앱에서 사진을 공유할 사람을 묻기도 한다. 이런 작업들은 모두 구글 클라우드 컴퓨터에서 수행한다. 만약 스마트폰 내에 전용 AI 칩이 있다면 클라우드의 용도가 줄어들고 단말기의 하드웨어에서 다양한 작업을 보다 신속하게 처리할 수 ​​있다. 특히 단말기에서 데이터 학습을 하면 개인정보가 보호되는 효과가 크다.

최근 몇 달 동안 우리는 모바일 장치에서 기계 학습에 사용되는 AI 칩에 대한 소식들이 들린다. 현재까지 애플과 화웨이가 AI칩을 채택했다고 알려져 있지만 AI칩 단독이 아니고 복잡한 SoC칩 속에 그래픽 처리, 이미지 처리 등 전용프로세서들 중의 하나로 삽입되어 있다. 애플의 아이폰 X에선 얼굴인식과 4K 비디오의 실시간 분석을 위해 A11칩 속에 AI 프로세서가 삽입됐다. 화웨이는 자사브랜드 스마트폰 메이트(Mate 10)에 채택한 SoC Kirin 970에서 신경망학습처리 기능 강화용으로 AI 프로세서가 삽입됐다. 페이스북은 퀄컴(Qualco㎜)과 협력해 VR 필터의 속도증강에 열중이다. 삼성전자도 스마트폰이 클라우드 컴퓨터를 이용하지 않고 자체적으로 학습이 강력해지도록 Ai칩 기능을 채택하는 준비를 하고 있다. 앞으로 출시되는 스마트폰에는 AI칩이 들어 있다고 선전해야 팔리게 될 것이다.

최근 조사에 의하면 모바일 용 AI칩을 개발 중인 벤처기업들은 상당히 많다. 국내 기업 중에도 네패스가 AI칩 NM500을 생산하고 있다. 현장에서 실시간으로 데이터를 학습하고 인식할 수 있다. 뇌신경망 구조의 작은(4.5㎜) 칩 속엔 576개의 뉴런이 내장되어 있다. 여러 개를 결합해서 사용할 수 있으며 이미지, 음성, 환경 등 모든 센서와 접목할 수 있어 웨어러블 기기, 의료 분야나 반도체검사장비, 자동차전장품, 로봇청소기, 그리고 가정용 제품부터 크게는 자율주행 자동차까지 적용할 수 있다.