搜索关键词 100万Token上下文
AI & Enterprise
DeepSeek发布V4:主打高性能低成本,并适配华为Ascend
DeepSeek发布新一代模型V4,并同步推出V4-Pro和V4-Flash两个版本。新模型主打长上下文处理能力和低成本优势,最高支持100万Token上下文。公司同时称,V4已完成对华为Ascend芯片的优化适配,被认为将进一步促进开源AI生态与国产算力的协同。
AI & Enterprise
DeepSeek发布V4系列模型:开源低价,对标Opus 4.7和GPT-5.5
中国AI公司DeepSeek推出V4系列模型,主打开源和低价。其中,V4 Pro采用1.6万亿参数MoE架构,支持100万token上下文;V4 Pro和V4 Flash均基于约33万亿token完成训练,多项基准测试表现接近Opus 4.7和GPT-5.5。市场分析认为,其性价比优势或推动企业采用,但地缘政治和使用依赖风险仍需关注。
AI & Enterprise
Anthropic Claude Code用量限制引争议:月费100美元套餐也迅速触顶
Anthropic近期进一步收紧Claude的用量限制。部分用户反映,月费100美元的“Max 5x”套餐在经历高强度开发后,即便只进行普通开发和问答,也会在约90分钟内再次触及限制。争议焦点在于,后台会话产生的缓存读取是否按原始量计入额度。对此,Claude Code开发团队表示,将研究缩小默认上下文窗口,并加强后台任务清理。