图片来源:Cloudera

Cloudera于2月10日宣布,扩展Cloudera AI Inference以及基于Trino的数据仓库本地部署方案,同时增强数据可视化与分析能力,进一步简化云、边缘和数据中心环境中的AI工作流。

Cloudera表示,随着企业从AI试验阶段迈向运营阶段,关键在于无论数据存放在哪里,都能以安全、可信的方式调用数据并部署AI应用。

据介绍,基于NVIDIA技术的Cloudera AI Inference支持在本地环境运行,企业可在自有数据中心直接部署并扩展各类AI模型,涵盖大语言模型(LLM)、异常交易检测、计算机视觉、语音AI,以及最新的NVIDIA Nemotron开放模型。

Cloudera首席产品官Leo Brunnick表示,此次扩展将为企业带来更高的AI控制力和灵活性。借助可在数据中心运行的Cloudera AI Inference、基于Trino的数据仓库方案以及数据可视化能力,企业无需迁移关键数据,即可安全部署AI和分析能力,从而提升数据安全、合规水平和运营效率,并加快创新与洞察产出。

关键词

#Cloudera #NVIDIA #Cloudera AI Inference #Trino #本地部署 #AI推理 #数据仓库 #数据可视化 #LLM #数据安全与合规
版权所有 © DigitalToday。未经授权禁止转载或传播。