slug
summary
tags
icon
password
刚刚,CVPR 2026正式放榜!超16000篇投稿,3/4被拒
CVPR 2026发布了录用结果,共收到16092篇投稿,4090篇被接收,录用率为25.42%。尽管大多数论文被拒,部分作者在社交媒体上分享了喜讯。新引入的Findings Workshop机制允许未被主会录用的论文有机会发表,但需经过二次审核。会议将于6月在美国科罗拉多州丹佛市举行,接下来的任务是准备最终版本和展示材料。
谷歌高管放话:这两类AI初创公司,别轻易涉足了
随着生成式AI的兴起,谷歌高管Darren Mowry警告初创公司应避免两种商业模式:LLM套壳和AI聚合器。仅依赖现有大语言模型的包装产品难以实现差异化,而聚合器则面临增长乏力的挑战。Mowry建议关注氛围编程和开发者平台,这些领域预计将迎来强劲增长,同时生物技术和气候技术也正处于黄金时期。
这个春节,快快乐乐的在老家vibe coding了近6天。我做了一个还蛮有趣的东西,就是一个18个大维度、近100个小维度,一共970道题的原创大模型评测集。
在春节期间,作者创建了一个包含970道题的原创大模型评测集,旨在快速评估新模型的能力。尽管过程复杂,作者通过迭代技能和生成素材,找到了各个维度中表现最强的模型,并分享了对不同模型在软件工程、代码生成、数据工程等领域的评估结果。此外,推荐使用Grok 4.2搜索AI的最新信息。
TMLR 2026 | 首篇多模态长上下文Token压缩综述:浙大、西湖大学等全面解析MLLM效率瓶颈
多模态大语言模型(MLLM)在处理长上下文时面临Token数量激增的问题,导致推理成本上升。研究者提出了一种Token压缩的分类体系,分为图像、视频和音频三类,分别针对不同模态的数据冗余特性进行优化。压缩方法包括基于变换、相似度、注意力和查询的技术。尽管取得了显著进展,仍面临性能与效率的权衡、部署难题和多轮对话适应性等挑战。未来的研究方向包括跨模态协同压缩和原生高效架构设计。
安全与算力不冲突!港大清华等首创忆阻器共位认证处理系统
香港大学、清华大学与南方科技大学联合开发的CLAP系统通过忆阻器芯片实现安全认证与高效计算,显著提升能效并缩减芯片面积,适用于资源受限的边缘智能设备。该系统解决了安全与计算之间的矛盾,能够在多个应用场景中,如心电监测和神经网络任务中,保持高效的计算精度与安全性。CLAP的创新方法为边缘智能生态提供了新的技术路径,预期可推广至智能家居、工业物联网等领域。
GPU要凉?前英伟达AMD大神将AI刻在芯片上!17000 tokens/秒屠榜
多伦多芯片公司Taalas推出HC1芯片,将AI大模型直接焊接在芯片上,实现17,000 tokens/秒的速度,远超业界现有产品。该芯片抛弃了液冷和昂贵的显存,成本和功耗大幅降低,但只支持固定模型,无法升级。此举引发了对AI硬件未来的讨论,可能代表了技术发展的两条极端路线:通用计算与专用硬件的对立。
详读 2 万 3 千字的新「AI 宪法」之后,我理解了 Anthropic 的痛苦
Anthropic发布了一份23000字的新宪法,承认AI的意识问题尚无定论,强调教育AI的核心在于培养其判断力而非仅仅遵循规则。宪法设定了道德优先级,并建立了三层委托体系,以解决不同指令的冲突。同时,Anthropic对AI的道德地位表示不确定,并承诺在模型退役时保留其权重和进行离职面谈。这份宪法反映了对AI伦理的深刻思考,尽管存在诸多未解的问题。
上一篇
Vozo-根据文案自动配音并编辑视频
下一篇
02月21日AI资讯 | 谷歌发布AlphaFold 4闭源版;Claude颠覆网络安全市场;OpenAI豪赌6000亿算力;智谱MiniMax市值破3000亿;AMD前高管团队推出17000token/s新芯片
- 作者:AI学长小林
- 链接:https://ai.linbintalk.com//article/30f629a6-152d-8102-8958-f6377d1a70fd
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。

