엔비디아 HGX H200 텐서 코어 GPU [사진: 엔비디아]
엔비디아 HGX H200 텐서 코어 GPU [사진: 엔비디아]

[디지털투데이 AI리포터] 엔비디아가 챗GPT 등 인공지능(AI) 도구의 속도를 높일 수 있는 칩인 'HGX H200 텐서 코어 GPU'(HGX H200 Tensor Core GPU)를 발표했다.

13일(현지시간) IT매체 아스테크니카에 따르면 이는 지난해 출시된 H100 GPU의 후속 제품으로, 지금까지 H100은 엔비디아의 가장 강력한 AI GPU 칩이었다.

새로운 H200은 호퍼(Hopper) 아키텍처를 활용해 인공지능(AI) 애플리케이션을 가속한다. 광범위하게 배포 시 가까운 미래에 훨씬 더 강력한 AI 모델을 구축할 수 있고 챗GPT와 같은 기존 모델의 응답 시간이 더 빨라질 수 있다는 설명이다.

또한 H200은 HBM3e 메모리를 제공하는 최초의 GPU로, 이를 통해 141GB 메모리와 초당 4.8테라바이트의 대역폭을 제공한다. 이는 지난 2020년 출시된 엔비디아 A100의 메모리 대역폭의 2.4배다. 

오는 2024년부터 아마존웹서비스, 구글 클라우드, 마이크로소프트 애저 및 오라클 클라우드가 클라우드 서비스 제공업체 최초로 H200 기반 인스턴스를 배포할 예정이다.

이안 벅 엔비디아 부사장은 크고 빠른 GPU 메모리를 사용해 방대한 양의 데이터를 고속으로 효율적으로 처리해야 한다는 점을 강조하며 "엔비디아 H200을 통해 세계에서 가장 중요한 과제 중 일부를 더욱 빠르게 해결할 수 있을 것"이라고 전했다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사