据SiliconANGLE当地时间1月20日报道,Modulate推出语音AI模型ELM,主打识别语音中的情绪、语境和意图。
Modulate介绍,ELM不同于传统大语言模型(LLM),采用的是专门面向语音数据理解的分层架构。
据该公司介绍,在识别准确率方面,ELM较OpenAI、Google、DeepSeek、ElevenLabs等主流模型高出30%;在成本方面,其运行成本仅为上述模型的1/10至1/100。Modulate表示,ELM能够捕捉文本型AI容易忽略的情绪和语境信息,从而提供更准确的语音分析结果。
Modulate还表示,ELM是在开发游戏语音聊天监测工具ToxMod的过程中推出的,目的是解决现有方案的局限。ToxMod可识别情绪、意图和语境,并对骚扰、仇恨言论等内容进行实时监测。
记者信息