AI日报
谷歌发现DeepSeek推理分裂多重人格;马斯克开源X平台AI推荐算法;MiniMax发布Agent 2.0智能体;形式化验证驱动MLLM推理跃迁;具身智能安全综述探讨LLM物理鸿沟 | 01月21日AI资讯
00 分钟
2026-1-21
2026-1-21
slug
summary
tags
icon
password

谷歌新发现:DeepSeek推理分裂出多重人格,左右脑互搏越来越聪明

谷歌的研究表明,DeepSeek-R1等推理模型在解题时会自发'分裂'出不同性格的虚拟人格,这种内部对话能提高推理准确性。复杂任务中,模型的对话行为更频繁,而简单任务则较少。通过分析神经元激活,研究人员成功识别出这些内部角色,并发现强化对话特征能显著提升模型的表现。这一现象与人类大脑的社会脑假说相呼应,表明AI在变聪明的过程中也需要进行'社交'。

马斯克刚刚真把 𝕏 平台推荐算法给开源了,核心也是Transformer

𝕏 平台已开源其推荐算法,基于与 xAI 的 Grok 模型相同的 Transformer 架构,旨在预测用户行为以排序帖子。该算法结合了站内和站外内容,采用全神经网络方式,核心组件包括 Thunder 和 Phoenix,分别负责内容存储和机器学习。此举可能与监管调查和透明度要求有关,马斯克表示算法仍需改进,但希望通过开源实现更好的用户体验。

刚刚,MiniMax来承包你的桌面了

MiniMax推出了其第二代智能体产品MiniMax Agent 2.0,旨在提升工作效率并重塑日常生活体验。新产品包含桌面端应用,能够处理本地文件和自动化任务,提供专家级的知识和能力。用户可通过Expert Agents获得更高的专业性,并能自定义智能体以满足个性化需求。MiniMax Agent 2.0强调主动适应用户的工作流程,展现了在高复杂度工作中的应用潜力和价值重构。

从平面几何出发:形式化验证如何驱动MLLM的推理能力跃迁

多模态大语言模型(MLLMs)在数学和几何推理中面临挑战,研究团队提出'形式化增强非形式化推理'的方案,通过构建形式化验证的几何数据合成引擎TrustGeoGen、分层能力评估基准GeoBench和可验证的'里程碑'训练框架SGVR,提升模型的推理能力,并实现跨领域泛化。该研究强调了严谨性在推理过程中的重要性,旨在构建更可信和鲁棒的推理模型。

首篇具身智能机器人「安全」综述:LLM如何跨越物理鸿沟?

最新综述探讨了大语言模型(LLM)控制机器人的安全威胁与防御机制,指出具身鸿沟导致物理空间中的危险行为。研究团队提出了针对具身智能的攻击分类方法,包括具身越狱、后门攻击和提示词注入,同时强调现有防御体系在逻辑与物理保障之间的断裂。未来的防御方向应聚焦于环境感知的安全对齐、全生命周期防御框架和标准化基准测试,以建立行业信任的安全基础。

怎么做 Long-running Agents,Cursor、Anthropic 给了两种截然不同的思路

Cursor 和 Anthropic 在长时间运行的 Agent 方面提出了不同的解决方案。Cursor 通过大规模并行运行多个 Agent 来处理复杂任务,采用角色分工的方式提高效率;而 Anthropic 则专注于解决单个 Agent 的记忆连续性问题,设计了双 Agent 方案以确保任务的逐步推进和清晰的交接机制。两者都面临协调和任务管理的挑战,并提出了各自的改进措施和实验结果。

微软CEO纳德拉:掌握'模型编排'能力,才能在AI时代建立护城河

微软CEO纳德拉在达沃斯论坛上强调,AI正在迅速重塑工作方式,核心竞争力在于如何有效'编排'不同的AI工具。他指出,AI不仅是辅助工具,更在接管专业工作,企业需转变观念,提升技能,以应对这一变革。同时,技术的普及和应用应关注实际问题的解决,避免技术泡沫,确保收益公平分配。未来的竞争将依赖于企业如何利用AI创造独特价值,而非单一的强大模型。
上一篇
AI资讯-01月22日
下一篇
字节扣子2.0发布向职场AI转型;伯克利MomaGraph让机器人懂家务;Anthropic为Claude注入永久记忆;DeepSeek mHC复现结果炸裂;谷歌英伟达革新模型记忆与注意力 | 01月20日AI资讯