Microsoftは第2世代AIチップ「Maia 200」を発表した。性能は従来モデル比で30%向上し、接続方式にはInfiniBandではなくEthernetを採用した。データセンターに導入し、電力消費を抑えながらAI推論の効率向上を図った。CNBCが1月26日(現地時間)に報じた。
同社はMaia 200を通じてクラウド需要の取り込みを進め、AIモデル開発者のニーズに対応する考えだ。
Maia 200は従来モデルに比べて性能を30%高めた。接続方式をEthernetとすることで、データセンター運用の効率化も狙う。
MicrosoftはMaia 200を自社データセンターに導入し、AI関連の演算処理に活用する方針だ。クラウド・AI部門バイスプレジデントのスコット・ガスリー氏は、「Maia 200はMicrosoftが開発した中で最も効率的な推論システムだ」と述べた。あわせて、AI開発者や研究者向けのSDKも提供するとした。
Maia 200は外販しない。データセンター内でのAI演算に用い、最大6144個のチップを接続して処理能力を高める。MicrosoftはNVIDIAとの正面競争を避けつつ、クラウド市場での競争力強化を目指すとみられる。
著者について