Cuda와 Tensor Cores는 NVIDIA GPU에서 가장 두드러진 사양 중 일부입니다. 이 코어는 GPU가 비디오 렌더링, 그래픽 처리, 머신 러닝 등과 같은 많은 작업을 수행 할 수있는 기본 계산 블록입니다. 두 코어는 GPU의 기능에 필수적이지만 특정 사용 사례를 충족시킵니다.
Cuda Cores를 일반적으로 그래픽 카드 등과 관련된 모든 작업을 실행하는 다재다능한 작업자로 생각할 수 있습니다. 이 코어는 병렬 처리의 원칙에 따라 작동하므로 더 빠른 처리를 위해 수천 개의 하위 작업으로 작업을 중단합니다. 반면에 텐서 코어는 기계 학습 애플리케이션에 완벽하게 만드는 특정 계산을 수행하는 데 능숙합니다.
즉, Nvidia는 DLSS를 통해 게임에서 AI 마법사의 텐서 코어를 활용했습니다. 텐서 코어는 또한 레이 추적 및 작동 방식에 유용하며 NVIDIA의 비디오 슈퍼 해상도 (VSR)로 실시간 비디오 업 스케일링을 제공합니다. 이 GPU 코어가 어떻게 작동하는지에 대해 바로 뛰어 들어 게임 경험에 어떤 영향을 미치는지 이해합시다.
쿠다와 텐서 코어 이해
GPU의 초기에는 주로 그래픽 및 비주얼 렌더링과 관련된 작업에 주로 사용되었습니다. GPU는 작업을 여러 하위 작업에 해부하여 그래픽 렌더링에 이상적이었습니다. 그러나 NVIDIA의 연구원들은 GPU가 그래픽 이외의 특정 계산 작업을 지원할 수 있음을 깨달았습니다. 그때는 Nvidia가 개발자가 계산 작업을 위해 GPU의 코어를 활용할 수있는 플랫폼 인 CUDA (Compute Unified Device Architecture)를 공개했습니다. CUDA 코어는 CUDA 지침을 실행하는 기본 처리 블록입니다.
전형적인 CPU는 1 ~ 128 코어를 가질 수 있지만, 대부분의 현대 Nvidia GPU는 수천 개의 CUDA 코어를 과시합니다. CPU는 순차적 작업을 처리하는 데 능숙하지만 Cuda Cores는 많은 수의 코어로 인해 기계 학습 및 데이터 처리와 같은 병렬 계산의 혜택을 처리 할 때 가장 밝게 빛납니다.
즉, NVIDIA는 기계 학습 응용 프로그램과 관련된 계산이 특수 코어로 가속화되고 2017 년에는 텐서 코어를 도입 할 수 있습니다. MAC (Mixed-Precision Matrix Multiply-Accumulate) 작업을 신속하게 수행하도록 조정되었습니다. 이는 심층 학습 애플리케이션에 필수적인 Tensor Cores는 AI에서 개발 속도를 높이기 위해 중추적 인 역할을했습니다.
텐서 코어는 Nvidia의 DLSS의 중추입니다
Tensor Cores는 Nvidia를 오늘날 주식 시장으로 만드는 데 큰 역할을했습니다. AI의 개발을위한 백본이되는 것 외에도,이 텐서 코어는 Nvidia의 최신 제품의 중심에 있었고 게이머에게도 중심이었습니다. NVIDIA는 2018 년에 딥 러닝 슈퍼 샘플링 (DLSS)을 출시하여 GPU의 AI 기능을 활용하여 추가 프레임을 렌더링하여 게임 플레이를 더 매끄럽게 만듭니다. 최고의 NVIDIA 그래픽 카드는 이제 CUDA 코어를 사용하여 기존의 그래픽 렌더링이고 텐서 코어는 AI 기능으로 최종 출력을 닦습니다.
DLSS는 출시 이후 각 반복마다 크게 진화하여 게임 경험에 더 많은 AI 마법사를 추가했습니다. 최신 버전의 DLSS에 대한 멀티 프레임 생성 (MFG)은 50 개의 시리즈 카드에 전적으로 2 개의 전통적으로 렌더링 된 프레임 사이에 최대 3 개의 인공 프레임을 생성하여 게임 중에 훨씬 높은 FPS를 제공 할 수 있습니다. DLSS가 게임 성능을 향상시키는 또 다른 방법은 DLSS 수퍼 해상도를 사용하여 렌더링 된 프레임을 더 높은 해상도로 고급하는 것입니다.
이를 위해 Cuda 및 Tensor Cores는 각각 이미지를 생성하고 고급 스케일링하여 더 나은 품질의 비주얼을 제공합니다. 또한 DLSS 지원 카드는 NVIDIA의 전용 RT 코어를 사용하여 Ray Tracing에서 훨씬 더 잘 작동합니다.