세계 최고의 슈퍼컴퓨터는 미국에서도 가장 크다





슈퍼컴퓨터는 정의상 당대의 가장 강력한 컴퓨터입니다. 1960년대의 IBM 7030과 UNIVAC LARC는 “슈퍼컴퓨터”라는 용어를 탄생시킨 최초의 것으로 간주되지만, 상업적으로 성공한 최초의 슈퍼컴퓨터는 Seymour Cray가 설계한 CDC 6600이었습니다. 이 획기적인 컴퓨터는 1964년에 처음 출시되었으며 당시 가장 강력한 컴퓨터로 간주되었습니다.

60년이 지나면 주머니에 있는 스마트폰은 초기 거대 기업보다 더 많은 처리 능력을 갖게 됩니다. 그러나 슈퍼컴퓨터도 발전했으며, 지구상에서 가장 강력한 예는 El Capitan 슈퍼컴퓨터입니다. 로렌스 리버모어 국립 연구소(Lawrence Livermore National Laboratory)에서 개발된 엘 캐피탄(El Capitan)은 불과 10년 전만 해도, 60년 전만 해도 상상할 수 없었던 성능을 달성하며 세계에서 가장 빠른 슈퍼컴퓨터로 검증되었습니다.

이는 또한 미국에서 가장 큰 슈퍼컴퓨터 중 하나입니다. 하지만 앞으로 살펴보겠지만 “가장 큰”을 정의하는 것은 줄자를 꺼내는 것만큼 간단하지 않습니다. 그러나 분명한 것은 El Capitan과 같은 현대 슈퍼컴퓨터가 단지 더 빠르기만 한 것은 아니라는 점입니다. 국가 안보부터 첨단 과학 연구에 이르기까지 다양한 문제를 해결하기 위해 수백만 개의 처리 코어를 사용하므로 훨씬 더 복잡합니다. El Capitan과 그 성능, 그리고 다른 슈퍼컴퓨터와 비교했을 때 어떻게 확장되는지 자세히 살펴보겠습니다.

El Capitan: 세계에서 가장 빠른 슈퍼컴퓨터

Top500 프로젝트의 최신 순위에 따르면 El Capitan은 2025년 11월 현재 세계에서 가장 빠른 슈퍼컴퓨터로, HPL(High Performance Linpack) 벤치마크에서 1.8엑사플롭 이상의 성능을 제공합니다. 이 수치는 컴퓨터가 초당 2.88경 계산의 최고 성능을 발휘할 수 있는 엑사스케일 시대에 확고히 자리잡게 해준다. 이러한 종류의 처리 능력 덕분에 엑사급 컴퓨터는 모든 제트 엔진의 결함을 발견하는 등 인상적인 업적을 수행할 수 있었습니다.

El Capitan은 Instinct MI300A GPU와 AMD EPYC 프로세서를 사용하는 Hewlett Packard Enterprise의 Cray EX255a 아키텍처를 기반으로 합니다. 기존 슈퍼컴퓨터와 달리 이 설정을 통해 El Capitan은 시뮬레이션이 많은 워크로드와 AI 기반 워크로드를 모두 보다 효율적으로 처리할 수 있습니다. 이는 고성능 컴퓨팅과 기계 학습 간의 중복이 증가하고 있음을 반영합니다. 1,100만 개 이상의 처리 코어가 있으며, 상호 연결된 노드 네트워크에서 병렬로 작동합니다. 또한 더욱 까다로운 HPCG(High-Performance Conjugate Gradients) 벤치마크에서도 선두를 달리고 있습니다. HPCG는 HPL의 보완적인 벤치마크로 고안되었으며 이론적 최고 성능이 아닌 실제 애플리케이션의 성능을 측정하도록 설계되었습니다.

실제 적용이라는 주제를 유지하면서 El Capitan의 책임 중 하나는 국가 핵 억지력의 신뢰성과 안전성을 보장하는 것을 포함하여 국가 안보입니다. 또한 Los Alamos 및 Sandia National Laboratories에 대한 시뮬레이션을 실행하는 임무도 맡고 있습니다. 처리 능력 측면에서 El Capitan은 의심할 여지 없이 지구상에서 가장 강력하며 당시 가장 강력한 슈퍼컴퓨터 목록에 합류했습니다. 그러나 물리적으로 가장 큰 슈퍼컴퓨터인지 판단하는 것은 더 복잡한 작업입니다.

그것을 가장 크게 만드는 것은 그렇게 간단하지 않습니다.

El Capitan을 미국 최대의 슈퍼컴퓨터로 묘사하는 것은 슈퍼컴퓨터의 크기를 어떻게 정의하느냐에 따라 크게 달라집니다. 순수한 계산 규모에서 보면 확실히 차트 1위를 차지합니다. El Capitan의 1,100만 개가 넘는 엄청난 코어 수는 단연 슈퍼컴퓨터로는 세계 최대 규모입니다. 비교를 위해 다음으로 큰 것은 900만 개 이상의 코어를 갖춘 Argonne National Laboratory의 Aurora 슈퍼컴퓨터입니다.

그러나 물리적 크기에 관해서는 이야기가 달라집니다. El Capitan은 약 5,900평방피트의 기계실 공간을 차지하는 반면, 앞서 언급한 Aurora 컴퓨터는 약 10,000평방피트의 물리적 설치 공간으로 훨씬 더 큽니다. 즉, El Capitan은 더 작은 공간에서 더 많은 컴퓨팅 성능을 제공합니다. 이러한 물리적 크기 차이는 설계자가 더 작은 폼 팩터에 더 많은 처리 능력을 담으려고 노력할 때 예상됩니다. 극단적으로 보면 이러한 추세로 인해 Nvidia는 주머니 크기의 슈퍼컴퓨터인 DGX Spark를 구축할 수도 있었습니다.

후자의 점은 2026년 1월에 퇴역한 NASA의 플레이아데스(Pleiades) 슈퍼컴퓨터에 의해 잘 입증되었습니다. 이 컴퓨터는 바닥 공간이 14,000평방피트에 달했지만 CPU 코어는 약 230,000개에 불과했습니다. 당시로서는 인상적이었지만 El Capitan에 비하면 거의 미미한 수준이었습니다. 이것이 의미하는 바는 단순히 엘 캐피탄을 미국 최대 슈퍼컴퓨터라고 부르는 것은 단순히 크기를 비교하는 문제가 아니라는 것입니다. 대신 단일 시스템에 통합된 하드웨어와 전례 없는 계산 규모를 살펴보는 것입니다.