Tesla最新专利展示了其在AI计算优化和芯片架构上的探索方向。(图片来源:由ChatGPT生成)

Tesla公开了一项面向低功耗场景的AI计算新技术。相关内容出现在近期披露的专利文件US20260017019A1中,核心是Tesla提出的“Mixed Precision Bridge”。

据区块链媒体Cryptopolitan 1月17日报道,这项技术试图将高能效的8位计算与32位高精度计算结合起来,目标是在现有硬件基础上实现最高40倍性能提升。外界也将其视为Tesla下一代AI芯片AI5处理器的重要底层技术之一。

对人形机器人Optimus而言,这一架构尤为关键。Optimus的电池容量仅约2.3kWh,如果继续采用32位GPU计算方案,仅AI推理在4小时内的耗电就将超过500W。Tesla表示,公司已将这一数值压低至100W以下,从而使Optimus在散热压力可控的情况下,连续运行时间超过8小时。

Tesla还表示,这项技术有望改善FSD(完全自动驾驶)中被称为“记忆丢失”的问题。此前,如果停车标志被大型车辆短暂遮挡,AI可能会“忘记”这一信息。新的混合精度架构可提供更长的上下文窗口和更高的位置分辨率,从而让AI以准确的3D坐标形式保留30秒以上的历史信息。Tesla称,借助RoPE(旋转位置编码),标志牌在车辆内部“心理地图”中的位置可以得到更稳定的保持。

专利文件还提到了一种Log-Sum-Exp近似方法,使8位处理器也能覆盖宽动态范围的音频处理需求,帮助车辆以接近32位精度的水平感知周边环境。

此外,Tesla还将加大对QAT(量化感知训练)的应用。其思路并非先训练32位模型再进行压缩,而是从训练初期就将模型置于8位约束环境中,以尽可能减少低规格硬件上的性能损失。

若将上述技术直接集成到芯片硅层,这也被视为Tesla降低对NVIDIA CUDA生态依赖的重要一步。在此基础上,未来同时采用Samsung Electronics与TSMC的双代工策略,也将更具可行性。

另一方面,Elon Musk旗下xAI已成为首家正式投运GW(吉瓦)级AI训练集群的企业。报道称,该集群规模已超过旧金山的峰值用电需求。在其他竞争对手仍在讨论2027年路线图之际,xAI已率先进入大规模运营阶段。业内也有观点认为,xAI可能成为OpenAI拟于2027年推出的“Stargate”项目的有力竞争者。

关键词

#Tesla #US20260017019A1 #Mixed Precision Bridge #AI芯片 #AI5处理器 #FSD #Optimus #RoPE #QAT #NVIDIA CUDA
版权所有 © DigitalToday。未经授权禁止转载或传播。