写真=Shutterstock

米TechCrunchは12日(現地時間)、OpenAIがCodexの軽量版「GPT-5.3-Codex-Spark」を公開したと報じた。CerebrasのAIチップを自社インフラに統合し、高速応答と低遅延の実現を目指す。

GPT-5.3-Codex-Sparkは、専用チップの活用を前提に設計された軽量モデルだ。OpenAIはハードウェアパートナーであるCerebrasのチップを自社インフラに組み込み、応答性能の引き上げを図る。

このチップは、従来のAI処理に比べて大幅な高速化を狙ったもので、AIモデルの処理需要の拡大に対応できるよう設計されたという。

TechCrunchによると、OpenAIはこれまでNVIDIAのH100やカスタムH200を利用してきた。今回の発表は、同社がハードウェア基盤の強化を進めていることを示す動きとみられる。

Cerebrasと連携して構築した「WSE-3」は、4兆個のトランジスタを搭載する。超低遅延の応答を可能にし、OpenAIはAIのリアルタイムな共同作業機能の強化を目指す。

キーワード

#OpenAI #Codex #GPT-5.3-Codex-Spark #Cerebras #WSE-3 #AIチップ #AI
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.