Lazy loaded image
AI日报
LeCun创业公司估值35亿美元开发世界模型;微软发布4540亿数据医疗时序模型;中科院AI芯片新路径登Science;Claude Code升级Tasks功能;OpenAI Codex发布月将至 | 01月25日AI资讯
字数 1220阅读时长 4 分钟
2026-1-25
2026-1-25
slug
summary
tags
icon
password

估值35亿美元,LeCun创业公司官宣核心方向,掀起对Next-token范式的「叛变」

Yann LeCun创立的AMI Labs专注于开发'世界模型',旨在构建理解现实世界的智能系统,克服现有大语言模型的局限性。该模型具备理解、持久记忆、推理与规划的能力,并强调在可靠性和安全性高的领域应用。LeCun批评现有的next-token预测方式,认为真正的智能应基于目标驱动和能量最小化机制。投资者对AMI Labs的关注度上升,估值可能达到35亿美元,LeCun计划与全球学术界合作推进AI研究。

微软发布医疗时序基座模型:基于4540亿数据预训练,解决不规则采样难题

微软推出了MIRA模型,旨在解决医疗时序数据的不规则采样问题。该模型基于4540亿个医疗数据点进行预训练,采用了连续时间旋转位置编码和神经常微分方程技术,能够有效处理复杂的医疗数据并进行高鲁棒性的预测。MIRA在多个权威数据集上的测试显示出卓越的零样本迁移能力,为医疗AI的发展提供了新的基础。

中科院AI芯片新路径登Science!铁电材料新结构突破存储密度极限

中国科学院物理研究所的研究团队在萤石结构氧化锆中发现了一维带电畴壁,突破了传统铁电材料的存储密度极限,理论密度可达每平方厘米20TB。这一发现揭示了氧离子自我平衡的电荷屏蔽机制,为高能效类脑计算芯片和人工智能器件的开发提供了新路径。研究还通过亚埃级成像技术揭示了畴壁的稳定性机制,显示出该材料在离子导电性方面的优越性。

Claude Code 升级: Tasks 取代 Todos

Claude Code 的 Todos 功能升级为 Tasks,允许跨 session 和 subagent 协作,支持任务依赖、文件系统存储和实时更新。此变化是因为模型能力增强和项目复杂性增加,用户可以直接创建 Tasks 并设置环境变量以实现协作。

挑战Claude Code?OpenAI Codex发布月将至,今先揭秘智能体循环

OpenAI即将发布与Codex相关的新内容,特别关注网络安全。Codex CLI的核心架构是智能体循环,协调用户指令、模型推理与工具执行。文章详细介绍了智能体循环的工作原理,包括输入、推理、解码和执行过程,并强调了上下文窗口管理和性能优化的重要性。未来的文章将深入探讨CLI架构和工具调用的具体实现。

不止于Prompt:揭秘「神经网络可重编程性」

研究者探讨如何在不改变模型参数的情况下最大化复用预训练模型的能力,提出了'神经网络可重编程性'的统一主题。通过系统分析模型重编程、Prompt Tuning和In-context Learning,强调了基于模型可重编程性的适配技术的优势,显示其在参数效率上显著优于传统的参数调整方法。该框架适用于不同模态和任务,提供了对现有方法的分类,并探讨了上下文学习和思维链推理的关系。

代码死了,死在Cursor生成3000000行浏览器的那个晚上!

Cursor的CEO Michael Truell进行了一次极端的压力测试,生成超过300万行Rust代码,但最终未能成功加载一个谷歌首页。这揭示了当前Vibe Coding的盲目性,代码的生成成本趋近于零,而理解代码的成本却在急剧上升,导致开发者从'架构师'沦为'清洁工'。AI生成的代码看似完美,实则隐藏着技术债务和潜在的逻辑错误,开发者需警惕以免陷入'死亡螺旋'。在AI时代,理解代码成为核心竞争力,需重视官方文档而非盲目依赖AI生成的代码。
上一篇
AI资讯-01月26日
下一篇
AI资讯-01月24日