slug
summary
tags
icon
password
32k微调处理百万Token:21倍的推理加速,10倍的峰值显存节省,实现恒定内存消耗
CoMeT是一种新型的协同记忆Transformer架构,能够高效处理长达100万token的文本,显著提升推理速度和内存效率,分别实现21倍加速和10倍显存节省。通过全局记忆和临时记忆的协同设计,CoMeT解决了传统模型在长文本处理中的记忆瓶颈,达到了SOTA级别的性能,证明了符合认知科学的记忆机制对通用人工智能的重要性。
谁给Anthropic送去了300亿美元?
Anthropic完成了300亿美元的G轮融资,估值达到3800亿美元,主要投资方包括GIC和Coatue。资金将用于研发前沿模型和扩展算力基础设施。公司年化收入已达140亿美元,客户数量大幅增长,财富十强企业中有八家为其客户。Anthropic推出了多项新功能,并是唯一同时在AWS、Google Cloud和Azure上提供服务的前沿模型供应商。
MiniMax M2.5 发布:10B 激活参数,打进头部模型
MiniMax发布了M2.5模型,具有10B激活参数,性能与Opus 4.6相当,支持多种编程语言,显著提高了编程和搜索能力。M2.5提供两个版本,速度和价格不同,经济效益显著。模型在办公场景中表现出色,完成任务速度比前一版本快37%。内部已全面应用M2.5,提升了任务完成率和编程效率,模型权重将开源于HuggingFace。
OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」
OpenAI发布了GPT-5.3-Codex-Spark模型,速度达到每秒1000个token,显著提高了代码生成的效率。该模型专为实时编程设计,采用Cerebras的高性能硬件,减少了延迟并提升了任务完成速度。用户可以实时协作,模型能够快速响应修改,标志着编程模式的转变。
视听分离SOTA提速6倍!清华发布首个6M高性能模型|ICLR'26
清华大学推出的Dolphin模型通过仅6M参数实现了视听语音分离的高性能,速度提升超过6倍,突破了高性能与低能耗的瓶颈。该模型采用离散化视觉编码和热扩散注意力机制,显著降低计算复杂度,同时在多个基准测试中刷新记录,适用于智能助听器和移动设备等资源受限场景。Dolphin在分离质量和模型性能上均优于现有主流方法,展现出强大的鲁棒性和优越的听感体验。
对话原力灵机周而进:模型2.4B就够用,关键是「具身原生」;能闭环才是最高效方法
一家公司推出了一个仅有2.4B参数的具身模型DM0,声称足以支持实时处理和推理。该模型强调从零训练,结合多源数据,旨在实现感知、推理和控制的闭环智能。与DM0同时发布的还有开源框架Dexbotic 2.0和量产工作流DFOL,目标是提升具身智能的应用能力。创始人周而进强调,具身智能的核心在于真实世界的反馈和数据采集,未来将逐步拓展到更复杂的应用场景。
开源多模态推理「破壁」时刻:MMFineReason助力4B逆袭30B
开源多模态推理框架MMFineReason通过提供高质量的推理数据,成功缩小了与顶尖闭源模型的差距。该框架生成了1.8M高质量样本,展示了小模型在复杂推理任务中的强大性能,甚至超越了更大参数的模型。数据选择和结构化推理链的优化是关键因素,证明了数据驱动的方法在提升模型能力方面的重要性。
请回答2026:38位中国AI关键人物的Magic Moment和趋势判断|甲子光年
2025年是中国人工智能的关键之年,行业关注点从模型规模转向技术的实际应用和长期运行能力。38位关键人物分享了他们的「魔法时刻」和对2026年技术趋势的看法,强调多模态模型、长期记忆、持续学习能力和智能体协作的重要性。未来,AI将从工具转变为伙伴,推动企业重塑和商业模式创新。
上一篇
Vozo-根据文案自动配音并编辑视频
下一篇
02月13日AI资讯 | 智谱发布GLM-5旗舰模型;高德发布ABot具身基座模型;小米开源机器人VLA大模型;小红书开源图像编辑SOTA模型;Anthropic警告Claude安全风险
- 作者:AI学长小林
- 链接:https://ai.linbintalk.com//article/307629a6-152d-81c1-bc02-ee1a50502849
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。


