slug
summary
tags
icon
password
OpenAI和Anthropic罕见互评模型:Claude幻觉明显要低
OpenAI与Anthropic首次合作进行模型互评,Claude模型在指令层次结构和幻觉测试中表现优于OpenAI的模型,尤其在拒绝回答不确定问题方面表现更好。测试结果显示,OpenAI模型在幻觉方面的表现较差,而Claude模型则更能保持秘密和抵御越狱攻击。
老黄太难了!英伟达Q2营收467亿美元创纪录,股价盘后还跌了5%
英伟达第二季度营收467亿美元,超出预期,数据中心业务贡献显著,Blackwell平台收入增长17%。英伟达正在转型为全栈AI平台,董事会批准600亿美元股票回购计划。尽管业绩强劲,股价在财报发布后下跌,分析认为原因包括数据中心收入略低于预期及市场对AI开支的担忧。
刚刚,全球AI百强榜发布!ChatGPT稳坐第一,DeepSeek第三,前50有22个来自中国
最新的全球消费级AI应用榜单显示,ChatGPT继续位居第一,DeepSeek排名第三,中国公司在前50名中占据22个席位。AI产品竞争生态逐渐稳定,谷歌的Gemini紧随其后,整体来看,AI市场正进入多极化竞争的新阶段。
陈丹琦有了个公司邮箱,北大翁荔同款
陈丹琦被曝可能加入Thinking Machines,这是一家由前OpenAI成员创办的神秘AI公司,已完成20亿美元的种子轮融资。她是清华姚班校友、普林斯顿教授,因其在NLP领域的成就而备受瞩目。如果确认加入,将是她首次进入工业界,吸引了广泛关注。
群核科技开源两款空间大模型,想解决 Genie3 没能彻底解决的问题
群核科技发布了两款开源的空间大模型,SpatialLM 1.5 和 SpatialGen,旨在解决现有视频模型在空间一致性方面的问题。SpatialLM 1.5 支持用户通过自然语言生成可交互的3D场景,而SpatialGen 则利用多视角扩散和3D重建技术生成真实的3D空间,确保光影和物体位置的一致性。
DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜
DeepSeek在FP8量化策略上引发关注,英伟达随后推出FP4量化,声称能以4位速度和16位精度进行预训练,显著提高训练效率。FP4的应用可能会推动AI模型的开发和应用,同时在低能耗和高效能方面设定新标准。
EMNLP 2025 | 动态压缩CoT推理新方法LightThinker来了
LightThinker是一种新方法,通过动态压缩推理过程中的冗长思维步骤,显著提高大语言模型的推理效率。该方法模仿人类思维过程,利用特殊指令和注意力机制,在生成思维摘要时减少内存占用和计算成本。实验结果显示,LightThinker在准确性和推理速度上均取得了显著提升。
AAAI-26投稿量爆炸:近3万篇论文,2万来自中国,评审系统都快崩了
AAAI-26会议投稿量达到近29000篇,其中中国投稿占比高达三分之二,审稿系统面临巨大压力。尽管投稿数量激增,AAAI仍确保评审质量,采取措施应对伦理问题和审稿人匹配。中国在AI研究领域的影响力显著上升,成为全球领导者。
- 作者:AI学长小林
- 链接:https://ai.linbintalk.com//article/25d629a6-152d-81c2-a59e-eab68e5a766a
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。