AI日报
Claude推出高级Research功能;MiniMax线性注意力突破;港中文清华Video-R1反超GPT-4o;OpenAI发布GPT-4.1系列;可灵AI全球用户突破2200万 | 04月16日AI资讯
00 分钟
2025-4-16
2025-4-16
slug
summary
tags
icon
password

Claude更新:高级Research功能、深度集成Google Workspace、语音模式即将上线

Claude将推出高级Research功能和Google Workspace深度集成,旨在提升协作效率。同时,语音模式即将上线,增强用户与AI的互动体验。这些更新将显著提高信息处理能力和工作流程的无缝对接。

MiniMax押注线性注意力,让百万级长文本只用1/2700算力|对话MiniMax-01架构负责人钟怡然

MiniMax-01架构采用线性注意力机制,突破了传统Transformer的计算限制,达到4560亿参数规模,显著提高了长文本处理效率,且在工业应用中展现出良好的可扩展性和性能。钟怡然分享了线性注意力的研究历程及其在模型架构中的创新应用。

视频推理R1时刻,7B模型反超GPT-4o!港中文清华推出首个Video-R1

港中文和清华推出的Video-R1模型在视频推理测试中超越GPT-4o,采用升级的T-GRPO算法和混合数据集,展现出强大的推理能力,所有代码和数据集已开源。该模型通过强化学习机制理解时间逻辑,显著提升了视频推理的准确性和泛化能力。视频推理的新时代已经到来。

OpenAI深夜发布GPT-4.1系列模型,支持百万Token上下文编程

OpenAI发布了GPT-4.1系列模型,支持最长100万个Token的上下文,提升了编程、指令遵循和长上下文理解能力。新模型包括GPT-4.1、GPT-4.1 mini和GPT-4.1 nano,具有更低的成本和延迟,适用于复杂任务和低延迟应用。

可灵AI全系发布2.0更新,视频及图像可控生成与编辑能力再升级,全球用户数突破2200万

可灵AI发布2.0版本,全球用户突破2200万,新增多模态视频及图像生成与编辑功能,显著提升创作质量和用户体验,助力各行业的内容创作与创新。
上一篇
OpenAI发布o3/o4-mini模型;豆包1.5深度思考模型上线;Shopify全面拥抱AI;伯克利与英伟达实现4K视觉预训练;谷歌AI破解海豚语 | 04月17日AI资讯
下一篇
GPT-4.1实测不及Gemini 2.5 Pro;可灵2.0发布;智谱启动IPO;字节发布Seaweed视频模型;华为盘古Ultra性能比肩DeepSeek-R1 | 04月15日AI资讯