Dinoticia代表 Jung Mu-kyung(图片来源:Daegeon Seok)

Dinoticia宣布,正式进军企业级AI存储市场。公司将以KV缓存复用技术和自研专用加速芯片为核心,推出软硬件一体化方案,面向全球AI基础设施市场展开布局,重点解决AI推理过程中GPU高带宽内存(HBM)容量受限的问题。

3日,在一场交流会上,Dinoticia代表 Jung Mu-kyung介绍了公司面向AI推理场景的基础设施战略。他表示,行业正在进入一个新阶段:AI不再只是处理结构化数据,而是开始直接调用文档、视频等海量非结构化数据参与推理。随着这一趋势加快,数据库与存储之间的边界正逐步模糊,传统以“保存数据”为主的存储系统,也在向支撑AI推理和执行的数据基础设施演进。

基于这一判断,Dinoticia提出,希望在存储层整合AI代理所需的多层记忆体系,构建统一的数据栈。公司认为,当前许多企业在推进AI落地时进展有限,其中一个重要原因在于模型本身缺乏持续“记忆”能力,面对重复任务时往往仍需从头接收指令。

为此,Dinoticia将相关能力划分为两类:一类是将非结构化数据转换为高维向量、并基于相似度进行检索的外部知识内存(External Knowledge Memory);另一类是按时间序列和语义维度沉淀用户交互记录的长时记忆存储(Long-term Memory)。

不过,当前需求最集中的仍是短期工作内存中的KV缓存(KV Cache)层。公司分析称,随着AI服务的会话数量增加、上下文窗口不断拉长,用于临时保存历史Token信息的KV缓存规模迅速膨胀,GPU HBM容量不足的问题也愈发突出。

这一问题在多用户共享GPU的云环境中尤为明显。针对这一瓶颈,Dinoticia提出KV缓存复用方案,即在无请求时将KV缓存写入存储,待需要时再重新加载,从而减少重复计算,并尽可能缩短Prefill阶段时延。

围绕上述方案,Dinoticia搭建了覆盖软件和硬件的垂直整合架构。软件层面,公司以向量数据库Seahorse承担语义检索功能;硬件层面,则自研专用芯片VDPU(Vector Data Processing Unit),用于加速数据处理。

公司表示,VDPU的设计思路是将相关数据处理任务从通用处理器中剥离出来,以提升能效和检索稳定性。该芯片已于去年12月完成Tape-out,计划于明年启动量产。与此同时,Dinoticia还将开发与NVIDIA Rubin平台互连与内存子系统(ICMS)架构兼容的高性能NVMe存储,以提升Prefill节点与解码节点之间的推理效率。

融资规模已达1000亿韩元,下半年将推首款AI存储产品

在资金方面,Dinoticia也在为业务扩张持续储备资源。Jung Mu-kyung表示,公司目前已获得约1000亿韩元投资,预计在3月完成剩余流程后,融资规模还将超过这一水平,主要出资方为风险投资机构(VC)。

尽管专用芯片业务尚未进入规模量产阶段,Dinoticia目前仅凭云服务和API等软件业务,去年仍实现31.5亿韩元营收。公司预计,今年营收将同比增长3倍以上。

据介绍,Dinoticia首批目标客户将是希望利用内部原始数据构建垂直AI解决方案的企业。公司计划通过提供一体化数据接入方案,推动企业实现数据资产化,并提升数据利用效率。

Jung Mu-kyung表示,韩国企业在基于NAND闪存的SSD硬件制造领域具备全球竞争力,但能够依托数据中心存储系统本身创造附加值并对外输出产品的企业并不多。Dinoticia将以下半年发布首款AI存储产品为起点,推动相关技术范式转向新的阶段。

关键词

#Dinoticia #企业级AI存储 #AI基础设施 #KV缓存 #GPU HBM #Seahorse #VDPU #NVMe存储 #NVIDIA Rubin #融资
版权所有 © DigitalToday。未经授权禁止转载或传播。