画像はイメージ(ChatGPTで生成)

Teslaが、低消費電力と高精度を両立するAI演算技術「混合精度ブリッジ(Mixed Precision Bridge)」を特許出願で開示した。公開特許「US20260017019A1」で明らかになったもので、同社はこの技術をOptimusの省電力化やFSD(完全自動運転)の認識性能向上につなげる考えだ。

ブロックチェーン系メディアのCryptopolitanが1月17日(現地時間)に報じた。Teslaは、電力効率に優れる8ビット演算と高精度の32ビット演算を組み合わせることで、既存ハードウェアに比べ最大40倍の性能向上を目指すとしている。次世代AIチップとして準備を進めるAI5プロセッサーの基盤技術に位置付けられている。

この技術は、バッテリー容量が約2.3kWhにとどまるヒューマノイドロボット「Tesla Optimus」で特に重要になるという。従来方式で32ビットGPU演算を使う場合、AI推論だけで4時間の動作に500W超を要する一方、Teslaは消費電力を100W未満に抑えられると説明した。これにより、Optimusは発熱を抑えつつ8時間超の連続作業が可能になるとしている。

Teslaはまた、この技術によってFSDで生じていた、いわゆる「記憶消失」の問題も改善できるとした。停止標識が大型車両に一時的に隠れた際、AIが標識の情報を保持できなくなる現象があったが、新たな混合精度ブリッジでは長いコンテキストウィンドウと高い位置解像度を維持し、30秒以上前の情報も正確な3D座標として記憶できるという。RoPE(回転位置エンコーディング)を活用し、車両の「メンタルマップ」上で標識の位置を安定的に維持する仕組みだとしている。

特許には、Log-Sum-Exp(ログ和指数)の近似手法も盛り込まれている。8ビットプロセッサーだけでも、小さな音から大きな音まで幅広いダイナミックレンジの音声処理を可能にし、車両が周辺環境を32ビット相当の精度で認識できるようにするという。

さらにTeslaは、量子化認識学習(QAT)も積極的に活用する。32ビットモデルを後から縮小するのではなく、当初から8ビット制約下でAIを学習させることで、低スペックのハードウェアでも性能低下を最小限に抑える戦略だ。

こうした技術を半導体に直接組み込むことで、TeslaはNVIDIAのCUDAエコシステムへの依存を減らす基盤を整えつつあるとみられる。Samsung ElectronicsとTSMCを併用するデュアルファウンドリ戦略も可能になる見通しだ。

一方、イーロン・マスク氏が率いるxAIは、ギガワット級のAIトレーニングクラスターを正式稼働させた初の企業になった。規模はサンフランシスコの最大電力需要を上回るとされ、競合各社が2027年のロードマップを議論するなか、すでに大規模運用段階に入ったとの見方もある。業界では、xAIが2027年に投入予定のOpenAIの「Stargate」プロジェクトに対する有力な競争相手になるとの予測も出ている。

キーワード

#Tesla #AI #半導体 #特許 #FSD #Optimus #xAI
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.