[사진: 셔터스톡]
[사진: 셔터스톡]

[디지털투데이 황치규 기자]챗GPT 같은 생성 AI 확산 속에 컴퓨팅 파워를 제공하는 클라우드 회사들보다 더 크게 웃고 있는 회사가 있으니 바로 엔비디아다. 

AI 모델과 서비스를 돌리는데 필요한  그래픽 프로세서(GPU) 수요가 급증하면서 GPU 시장을 틀어쥔 엔비디아는 AI 열풍에서 가장 이익을 보는 회사들 중 하나로 부상했다.  개당 1만달러에 달하는 엔비디아 A100 GPU 시스템은 AI산업에서 가장 중요한 칩이 됐다는 얘기도 나오고 있다.

뉴스트리트 리서치에 따르면 엔비디아는 이미 머신러닝 AI 용으로 쓰이는 GPU 시장에서 95% 이상을 점유하고 있다.

A100은 챗GPT, 빙 검색 AI, 스테이블 디퓨전 같은 머신러닝 모델에 적합하다.  많은 계산을 동시에 할 수 있도록 지원하기 때문에 신경망 모델 훈련 및 활요에 중요하게 쓰인다. A100에 탑재된 GPU는 처음에는 게임에서 3D 그래픽을 렌더링하는데 많이 사용됐지만  이제 게임 PC를 넘어 데이터센터에서 머신러닝 작업용으로 많이 활용되고 있다고 CNBC는 전했다.

AI 회사들은 서비스 운영을 위해 수백 개 또는 수천 개 규모  엔비디아 칩을 필요로 한다. 

CNBC 보도에 따르면 거대 언어 모델 같은 AI 모델을 훈련시키려면 수백개 GPU가 필요하다. 테라바이트 규모 데이터를 분석해 패턴을 빠르게 인식하고 추론하는 과정에서 GPU 성능이 갖는 비중은 점점 커지는 모양새다. AI 분야 일부 창업자들은 접근할 수 있는 엔비디아 A100 숫자를 진화의 신호로도 보고 있다고 CNBC는 전했다. 

이미지 생성 AI 스테이블 디퓨전 개발사인 스터빌러터 AI는 1년 전에만 해도 32개 AI00를 사용했는데, 지금은 5400개 이상 A100 GPU들에 접근할 수 있는 역량을 확보했다고 CNBC가 스테이트 오브 AI(State of AI) 보고서를 인용해 전했다.

주가 측면에서도 엔비디아는 AI 효과를 톡톡히 보고 있다. 1월로 끝난 4분기 실적 집계 결과 엔비디아 매출은 21% 줄었지만 주가는 14% 뛰는 장면이 연출됐다. 데이터센터 부문으로 보고된 AI 칩 비즈니스 매출이 4분기 11% 늘어난 점이 투자자들로부터 좋은 반응을 이끌어냈다는 분석이다. 엔비디아 주가는 2023년 들어 65% 올랐다고 CNBC는 전했다.

엔비디아는 코드명 암페어(Ampere)로 불리는  A100 프로세서를 2020년 선보였고  H100을 포함해 코드명 호퍼(Hopper)로 부르는 차세대 칩들도 준비 중이다. H100의 경우 지난해 출하기 시작됐다.

A100은 기존 서버 슬롯에 장착할 수 있는 단일 카드로도 이용할 수 있지만  많은 데이터센터들은 8개 A100 GPU가 함께 작동하는 시스템인 엔비디아 DGX A100을 사용하고 있다고 CNBC는 전했다. DGX A100 제안 가격은 20만달러 수준이다.

뉴스트리트 리서치 추정치에 따르면 빙 검색에 탑재된 오픈AI 챗GPT 모델은 1초 안에 질문에 대한 답을 주기 위해 8개 GPU를 필요로 할 수 있다. 이걸 기준으로 잡으면 마이크로소프트가 모두에게 이 서비스를 제공하려면 2만개 이상 8GPU 서버가 필요하다. 인프라 비용으로만 40억달러가 들어간다는 얘기다.

젠슨 황 엔비디아 CEO는 CNBC 게이티 사라소프와 인터뷰에서 자사 제품은 AI 모델에 필요한 연산량에 비해 저렴하다는 점을 부각했다. CPU를 썼다면 10억달러가 들어갔을 일을 1억달러로 해주고 있다는 것이었다. 그는 "클라우드에서 100개 회사가 공유하면 1억달러는 아무 것도 아니다"고 말했다.

GPU를 제공하는 회사가 엔비디아 뿐만은 아니다. 인텔과 AMD도 GPU를 내놨고 구글과 아마존웹서비스(AWS) 같은 빅클라우드 회사들도 AI 워크로드를 위해 디자인된 챕을 배치했거나 개발하고 있다.

그럼에도 AI 하드웨어 시장 판세는 여전히 엔비디아 중심응로 통합돼 있다는 평이다. CNBC는 스테이트 오브 AI 보고서를 인용해 지난해 12월 기준으로 오픈소스 AI 논문들 중 2만1000개 이상이 엔비디아 칩을 사용했다고 전했다.

키워드

#엔비디아 #AI
저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지