AI日报
即梦3.0超越GPT-4o;Meta革新Transformer;Claude 3.5复现论文;DeepMind自学挖钻;AMD GPU性能暴涨7倍 | 04月03日AI资讯
00 分钟
2025-4-3
2025-4-3
slug
summary
tags
icon
password

即梦3.0上线:100镜横评即梦3.0/2.1和GPT4o,中文海报,此刻登顶!

即梦3.0上线,中文生成能力显著提升,超越GPT-4o,特别在艺术字、产品海报和活动海报等方面表现突出,画质和审美也有明显改善,为设计师提供了更强大的工具。未来AI生成影像将持续进步。

浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

Meta FAIR团队推出多token注意力机制(MTA),显著提升了Transformer模型的性能,能够同时处理多个查询和键向量,解决传统注意力机制的局限性,实验结果显示在多种任务中错误率接近零,尤其在长文本和复杂信息检索方面表现优异。

OpenAI的AI复现论文新基准,Claude拿了第一名

OpenAI推出了PaperBench基准测试,评估AI智能体复现前沿人工智能研究的能力。Claude 3.5 Sonnet在测试中得分21.0%,显示出显著的复现能力,标志着AI在科研领域的突破。

DeepMind闭关修炼「我的世界」,自学成才挖钻登Nature!人类玩家瑟瑟发抖

DeepMind的DreamerV3通过强化学习和世界模型,在《我的世界》中成功自学收集钻石,标志着向通用人工智能迈进了一大步,且无需任何人类数据支持。该成果已发表在Nature上。

AMD GPU性能暴涨7倍,优化算法首次开源!高效MoE支持任意专家数量

AMD的MoE算法通过并发多块执行和共享内存优化,实现了显著的性能提升,A100和H200提升3倍,MI100提升10倍,MI300X/MI300A提升7倍,支持最多256个专家。该算法在AMD平台上进行了优化,旨在提高计算效率和内存利用率。
上一篇
DeepSeek联手清华发布推理时Scaling论文;GPT-4.5多模态创造力弱于GPT-4o;华为GTS-LUM模型预测用户行为新SOTA;Meta提出Multi-Token注意力机制;Anthropic曝大模型诚信问题 | 04月04日AI资讯
下一篇
快手升级AI商业引擎;CVPR 2025开源Neural LightRig;DeepSeek R1数学竞赛表现不佳;国产RISC-V芯片亮相;清华哈佛联合建模4D语言场 | 04月02日AI资讯