국제슈퍼컴퓨터학회(ISC)는 린팩(Linpack) 벤치마크를 기준으로 매년 두 차례씩 세계에서 가장 강력한 속도를 내는 슈퍼컴퓨터 상위 500 순위를 매겨 발표해 왔으며 2017년 순위를 발표했다. 세계 최고의 슈퍼컴은 33.9페타플롭스(Petaflops : Peta Floating Point Operations Per Second)로 이는 매 초당 부동소수점 연산을 10의 15승회 처리하는 속도다.

기록으로 지난 3년 동안 중국의 텐허-2(Tianhe-2)가 차지해 왔다. 그런데 이 기록을 훌쩍 뛰어 넘는 신기록이 등장했다. 중국 우시(Wusi)의 국립슈퍼컴퓨팅센터에 설치되어 있는 타이후라이트(TaihuLight) 슈퍼컴으로 린팩속도로 93페타프롭스(Petaflops)를 기록한다. 3위는 기존 슈퍼컴에 엔비디아(NVIDIA)의 Tesla P100 GPU를 보강한 스위스국립슈퍼컴퓨터센터(CSCS)의 피즈 당(Piz Daint)이 19.6페타플롭스의 속도로 차지했다. 따라서 2위였던 미국 국립오크리지연구소의 타이탄(Titan)은 17.6페타플롭스로 4위에 머물렀다. 5위는 미국 로렌스국립연구소에 설치된 세퀴아(17.2페타플롭스), 6위는 국립에너지과학연구센타(NERSC)에 설치된 코리(Cori, 14페타플롭스), 7위는 일본 첨단고성능컴퓨터센터에 설치된 오크포리스트(Oakforest, 13.6페타플롭스), 8위는 일본 리켄 첨단컴퓨터과학연구소(AICS)에 설치된 케이(K, 10.5페타플롭스), 9위는 아르곤 국립연구소에 설치된 미라(Mira, 8.6페타플롭스), 그리고 10위는 로스알모스연구소에 설치된 트리니티(Trinity, 8.1페타플롭스)이다. 국내에 설치된 기상청의 미리(Miri)는 53위에 기록되어 있다.

 

슈퍼컴퓨터는 국가의 기술 경쟁력인가?

통상 슈퍼컴의 성능은 해당 국가의 과학 기술력을 상징하는데 중국이 상위 1, 2를 차지하고 500위 내에도 160대나 포함되어 있어서 이미 세계 최고 수준의 위상을 차지했다고 할 수 있다. 미국은 500위 내에 169대를 포함시켜 가장 막강한 컴퓨팅 능력을 보유하고 있다고 하지만 상위권 밖으로 밀려난 상태라 매우 충격으로 받아들이고 있다. 한마디로 중국이 계산할 수 있는 걸 미국은 계산하지 못한다는 의미이므로, 기술력이 뒤바뀌는 전환기를 맞이하고 있다고 할 수 있다. 미국과 중국을 제외하고는 일본이 33대, 독일이 28대, 프랑스가 17대, 영국이 17대이다. 한국은 6대가 포함되어 있다.

물론 CPU 칩은 거의 다 미국산이다. 인텔의 제온(Xeon) 또는 Xeon Phi가 464개 시스템에 공급되어 있어 수위를 점유하고 있다. IBM은 21개 시스템, AMD는 6개 시스템이다. 슈퍼컴퓨터의 성능 중 최근엔 에너지 효율이 중요한데 에너지 효율이 가장 좋은 시스템은 도쿄대 공대(Tokyo Institute of Technology)에 설치된 TSUBAME 3.0으로 속도 순위는 61위지만 에너지 효율은 기가플롭스/와트로 1위를 차지했다. 에너지 효율 2위와 3위도 모두 일본이 개발한 슈퍼컴들로 각기 야후 저팬의 Kukai시스템과 일본산업기술종합연구소(AIST)의 AI Cloud시스템이 차지했다.

슈퍼컴퓨터는 주로 기후 및 날씨 예측에 사용된다. 전 세계에서 매일 관측되는 수백만 세트의 데이터를 수치해석모델에 입력해 수백 미터에서 수천 킬로미터의 범위에서 발생하는 대기, 해양, 육지 표면, 빙(氷)권 및 생물권의 변화를 예측해낸다. 슈퍼컴의 성능이 높을수록 예측의 안정성과 적시성이 높고 보다 정밀한 예측이 가능하다. 날씨나 기후예측전문가들은 현재의 슈퍼컴보다 100~1000배 높은 성능의 컴퓨터를 원하고 있다. 슈퍼컴의 수명은 대략 5년 정도로 보므로 현재 성능이 앞으로 5년간의 성과를 좌우한다고 전망할 수 있다. 따라서 앞으로 5년 이상 중국의 컴퓨팅 능력이 미국을 능가하는 수준에 있다고 할 수 있다. 더욱이 중국은 2020년까지 엑사급(초당 10의 18승회 계산) 슈퍼컴을 개발하겠다고 공개했다. 이는 최신 노트북의 1조배만큼 강력한 성능이다. 위기의식을 느낀 미국 에너지성(DOE)은 지난주에 엑사급 슈퍼컴 개발 프로젝트에 3년간 2억8800만달러를 긴급 투입하고 민간 기업이 매칭 펀드를 내서 총 4억3000만달러 이상의 투자를 하기로 했다. 고성능 컴퓨팅 분야에서의 리더십을 잃게 되면 국가의 안보, 제조업, 산업경쟁력, 에너지 및 지구과학 등에서 경쟁력이 약화되기 때문이다. 엑사급 컴퓨터 개발 프로젝트는 일본과 유럽에서도 현재 추진 중인 기술개발과제이다. 물론 기술적으로 엑사급 슈퍼컴을 개발하는 일은 간단치 않다. 지금과 전혀 다른 수준의 컴퓨터 하드웨어 및 아키텍처의 발전이 필요하기 때문이다. 메모리 구조 및 저장, 병렬처리 과정의 고속 연결성, 안정성, 에너지 소비절감 구조 등의 문제들을 극복해야 한다. 따라서 누가 먼저 엑사급 슈퍼컴을 개발하는가는 총체적인 기술력에 달려 있다.

 

컴퓨터 속도와 기계학습 성능

엑사급 슈퍼컴이 등장하면 건강과 의학, 운송 및 전력 인프라, 농업 및 기상분야의 기술발전에 큰 발전을 기대할 수 있다. 예를 들면, 생물시스템에 대해 매우 정밀한 디지털 시뮬레이션이 가능해서 기후변화와 같은 가뭄에 견딜 수 있는 식물의 성장에 관한 해답을 구할 수 있다. 기후예측에 보다 더 세밀한 물리, 화학, 환경 조건들을 포함해 정교한 시뮬레이션을 하려면 엑사급 정도의 슈퍼컴이 필요하다는 의견이다. 예를 들면, 식물세포가 극도의 가뭄환경에서 어떻게 반응하는지를 분석해서 가뭄에 강한 작물을 새롭게 개발할 수 있다. 컴퓨터가 강력해지면 예측모델을 보다 더 현실에 가깝게 세분해 입력해주고 시뮬레이션할 수 있다. 컴퓨팅 능력은 국가 안보와도 밀접한 관계가 있다. 입수된 데이터를 신속히 분석해 잠재적 위협을 빠르게 평가하고 예측하는 능력이 강화된다는 의미이다.

현재 개발하고자 하는 슈퍼컴퓨터는 실리콘 반도체 칩을 기반으로 한 슈퍼컴이다. 미국이 슈퍼컴 개발에서 중국에 뒤진 듯한 현상이 나타난 것과 관련해서 두 가지 관점이 숨어 있다. 그 하나는 컴퓨터의 계산속도 성능도 중요하지만 학습 성능이 더욱 문제해결에 중요하다는 인식이 최근에 널리 확산되고 있다는 점이다. 기계학습에 기반을 둔 인공지능 기술이 발달하면 할수록 컴퓨터 속도보다 인공지능 알고리즘이 문제해결의 지름길이 된다는 관점이다. 미국 컴퓨터 제조 기업들의 모든 관심은 CPU보다 딥런닝 학습에 최적화된 칩을 개발하는 데에 더 열중하고 있다. 대표적인 사례가 엔비디아의 GPU(Graphic Processing Unit)와 인텔의 FPGA(Field Programmable Gate Arrays) 그리고 구글이 개발한 TPU(Tensor Processing Unit)이다.

소셜미디어나 인터넷에서 가져온 비디오나 음성의 디지털 데이터가 기하급수적으로 늘어남에 따라서 데이터를 제대로 이해하고 실행 가능한 분석기술이 매우 중요해졌다. 기계학습 중에서도 심층공진화신경망(DNN)학습 같은 기법이 확산되고 있다. 아직까지는 GPU가 기계학습에 효과적이라고 알려져 왔지만 최근에 등장한 FPGA 가속기가 첨단 기계학습기법에서 GPU를 능가하는 학습효과를 보일 수 있는가에 관심이 높다. 또한 구글이 독자 개발한 TPU는 알파고 열풍을 몰고 그 성과를 과시하고 있지만 아직은 폐쇄적인 시스템이다.

 

새로운 컴퓨터가 필요하다

실리콘 반도체에 구속된 슈퍼컴이 크게 매력적이지 못한 또 한 가지 이유는 실리콘 반도체의 수명이 거의 끝나가기 때문이다. 앞으로 엑사급 슈퍼컴을 개발한다 해도 더 이상 실리콘 칩만으로는 고성능 슈퍼컴을 발달시킬 수 없다고 보는 시각이다. 선폭을 줄이고 크기를 줄인다 해도 계산속도가 증가하지 않고 소비에너지가 크게 줄어들지 않기 때문이다. 특히 전력소비가 높아 사용료가 엄청 비싼 단점이 있다. 이를 극복하기 위해선 전혀 다른 개념의 컴퓨터가 필요하다. 그래서 탐색하는 기술이 바로 뉴로모픽(Neuromorphic) 아키텍처나 양자(Quantum) 컴퓨터의 개발이다.

뉴로모픽 컴퓨팅은 두뇌와 같은 병렬처리 작용을 컴퓨터에서 구현해 보는 시도이다. 두뇌작용과 기존 CMOS 작용은 신호 형식, 시간 간격, 비휘발성 기억, 아키텍처, 허용되는 오류, 통합기억과 계산, 잡음 허용치, 아날로그와 디지털, 실시간 학습 등에서 근본적으로 다르다. 뇌신경 구조를 흉내 내려면 전혀 새로운 물질을 활용해 에너지 소비를 낮추고 계산 성능을 높여야 한다. 미국 에너지성은 나노기술개발, 컴퓨팅 전략기술개발, 브레인 작용 규명 등을 통해서 두뇌를 모방하는 기술이 완성될 수 있다고 본다. 기본재료에서부터 시스템에 이르기까지 완전히 새로운 아키텍처로 개발해 보는 데 의미가 있다. 현재까지 개발된 뉴로모픽 컴퓨팅 플랫폼은 브레인스케일에스(BrainScaleS)와 스피네커(SpiNNaker)로 불리는 두 가지 유럽 시스템과 트루노스(TrueNorth)라 불리는 미국 IBM시스템이 있지만 프로토 타입 상태이고 실제로 고성능 계산 성과를 보여주지 못하고 칩 구조 설계단계에 머물러 있다.

이와 달리 미래의 컴퓨터는 양자컴퓨터가 될 것이라고 생각하는 사람들도 많다. 양자컴퓨팅에 거는 기대는 큐비트(Qubit) 수를 늘릴수록 연산 능력이 기하급수적으로 늘어날 수 있다는 원리 때문이다. 일반 컴퓨터처럼 복잡한 현상을 순차적으로 계산하지 않고 한 번에 다중변수를 채택해서 한꺼번에 문제해결책을 찾아낼 수 있을 것이라고 기대한다. 하지만 간단한 문제가 아니다. 원자와 전자가 양자현상을 발휘하려면 열 간섭을 받지 않는 절대 온도 영도(-273.16도)에 가까운 온도에서 프로세스를 처리해야 하고 외란 요소에 의해 장시간 동안 설정된 양자상태를 유지시키는 방법이 어렵다. 한마디로 범용컴퓨터로 발전되기 힘든 기술이다. 미래 컴퓨터가 어떤 방향으로 발전해 갈지는 아직 확실치 않다. 우선은 소프트웨어적으로 기계학습이 잘되는 칩 개발에 전념하게 될 공산이 크다.