[디지털투데이 AI리포터] 엔비디아가 챗GPT 등 인공지능(AI) 도구의 속도를 높일 수 있는 칩인 'HGX H200 텐서 코어 GPU'(HGX H200 Tensor Core GPU)를 발표했다.
13일(현지시간) IT매체 아스테크니카에 따르면 이는 지난해 출시된 H100 GPU의 후속 제품으로, 지금까지 H100은 엔비디아의 가장 강력한 AI GPU 칩이었다.
새로운 H200은 호퍼(Hopper) 아키텍처를 활용해 인공지능(AI) 애플리케이션을 가속한다. 광범위하게 배포 시 가까운 미래에 훨씬 더 강력한 AI 모델을 구축할 수 있고 챗GPT와 같은 기존 모델의 응답 시간이 더 빨라질 수 있다는 설명이다.
또한 H200은 HBM3e 메모리를 제공하는 최초의 GPU로, 이를 통해 141GB 메모리와 초당 4.8테라바이트의 대역폭을 제공한다. 이는 지난 2020년 출시된 엔비디아 A100의 메모리 대역폭의 2.4배다.
오는 2024년부터 아마존웹서비스, 구글 클라우드, 마이크로소프트 애저 및 오라클 클라우드가 클라우드 서비스 제공업체 최초로 H200 기반 인스턴스를 배포할 예정이다.
이안 벅 엔비디아 부사장은 크고 빠른 GPU 메모리를 사용해 방대한 양의 데이터를 고속으로 효율적으로 처리해야 한다는 점을 강조하며 "엔비디아 H200을 통해 세계에서 가장 중요한 과제 중 일부를 더욱 빠르게 해결할 수 있을 것"이라고 전했다.
SNS 기사보내기
관련기사
- 엔비디아, 美규제 피한 '중국향 칩' 개발 중…최소 올해 말 출시
- 中 바이두, 엔비디아 대신 화웨이 AI 반도체 대량 주문
- 엔비디아, 머신러닝용 아마존 EC2에 H100 GPU 탑재
- 엔비디아, AI 챗봇으로 '반도체 디자인' 혁신
- 펜대 돌리는 AI 휴머노이드...로봇 개발 전환점 될까?
- "복잡한 동작도 OK" 엔비디아, 로봇 학습 시스템 '유레카' 공개
- 엔비디아, 4분기 실적 전망 '맑음'
- 엔비디아, 규제 피한 '중국향 칩' 출시 연기…주가 2% 하락
- 챗GPT 출시 1년, 오픈AI는 어떻게 세상을 바꿨나
- AI 메모리 확대일로...삼성·SK, AWS 자체 AI칩에도 HBM3 공급
- 엔비디아 CEO "日 GPU 공급 우선시할 것"