slug
summary
tags
icon
password
智谱GLM-5技术全公开!完全适配华为等国产芯片,美国网友酸了
GLM-5技术论文全面公开,展示了其在复杂任务处理中的能力,采用了动态稀疏注意力机制和异步强化学习基础设施,显著提升了推理速度和训练效率。该模型已与多种国产芯片适配,表现出色,成为开源领域的领先者,并在多个评测中取得优异成绩,显示出其在长任务和复杂代码生成中的潜力。
热度第一、Tokens周调用破3T,MiniMax这个春节杀疯了
MiniMax在春节期间表现出色,发布的新模型M2.5在短时间内引发了巨大的市场需求,周调用量突破3.07T tokens,超过其他竞争对手。M2.5的成功得益于其高效的性能、合理的定价和支持本地部署,满足了开发者对高效能模型的迫切需求。该模型的设计采用了先进的强化学习系统Forge,显著提升了训练效率和执行稳定性,推动了开源社区的快速发展和商业应用的可行性。
20天狂更超10次,OpenClaw接入Gemini 3.1和Apple Watch
OpenClaw在过去三周内频繁更新,接入Google Gemini 3.1和Apple Watch,推动了AI技术的进步。其iOS应用迅速发展,支持多种功能,如实时语音和通知管理。同时,子智能体架构的引入提升了复杂任务处理能力。尽管面临安全挑战,OpenClaw通过加密和权限管理等措施加强了安全性,并获得了OpenAI的支持。
Anthropic最新报告,揭示了300个独角兽的创业机会!YC CEO力挺
Anthropic的最新报告揭示,AI智能体在软件工程领域的使用量占49.7%,而其他16个行业的使用量均不足9%。尽管AI具备连续工作5小时的能力,用户实际授权的最长时间仅为42分钟,显示出信任尚未跟上技术进步。Y Combinator的CEO认为,这一几乎空白的市场蕴藏着300个独角兽的创业机会,尤其是在医疗、法律、金融等领域。随着企业对AI投资的增加,未来三年将是AI真正见效的关键时期。
不整虚的!中美AI同步加速:47天30次更新,中国AI的最强主场究竟在哪?
2026年初,中美AI领域同步加速,频繁发布新模型,形成激烈竞争。中国的AI技术迭代在海淀区集中,多个企业在短时间内推出了具有影响力的模型,显示出区域综合能力的爆发。海淀的创新生态系统和人才聚集使其成为全球AI竞争的重要基地,推动中国在国际舞台上的影响力。
ICLR 2026|把LLM Embedding Model算力瓶颈,从Query侧彻底移走,LightRetriever来了
LightRetriever提出了一种极致非对称的LLM嵌入模型,显著降低查询侧的计算负担,提升推理速度超过千倍,同时保持95%的检索性能。该模型通过将深度建模的计算负担转移至文档侧,实现了高效的在线推理,适用于真实应用场景的检索系统。研究表明,查询侧不需要完整的深度上下文建模即可匹配文档侧的语义结构。
32倍压缩率下性能反超25个点!破解长文本压缩「翻车」难题 | ICLR 2026
研究团队提出了COMI框架,通过边际信息增益优化长文本压缩,解决了高压缩率下性能下降的问题。该方法强调在保留相关性同时提升信息多样性,采用粗到细的自适应压缩策略,确保高价值信息的保留。实验结果显示,在32倍压缩下,COMI在多个任务中表现优异,证明高质量压缩不仅是减少冗余,更是信息提纯,提高了模型的推理效率和准确性。
上一篇
Vozo-根据文案自动配音并编辑视频
下一篇
02月22日AI资讯 | CVPR 2026录用率25.42%;谷歌警告两类AI初创公司;港大清华首创忆阻器认证系统;Anthropic发布23000字AI宪法;Taalas芯片实现17000 tokens/秒
- 作者:AI学长小林
- 链接:https://ai.linbintalk.com//article/310629a6-152d-8115-a159-f85f2db90c61
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。

