slug
summary
tags
icon
password
⏩苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了
苹果和Meta AI的研究团队提出了一种名为LazyLLM的新方法,可以在保证准确度不明显下降的情况下,将Llama 2预填充阶段的推理速度提升到原来的2倍以上。LazyLLM通过逐渐对token进行剪枝来减少计算数量,从而优化LLM推理的效率。该方法在预填充阶段只计算对预测下一个token重要的token,通过逐层token剪枝来确定输入token对将要预测的token的重要性。
⏩谷歌终于赢了OpenAI一回:实验版本Gemini 1.5 Pro超越GPT-4o
谷歌发布了Gemini 1.5 Pro实验版本,该模型在多个领域表现出色,包括语言任务、数学、Hard Prompt和编码等。Gemini 1.5 Pro在Chatbot Arena排行榜上名列前茅,并在视觉任务中表现出色。然而,Gemini 1.5 Pro在某些领域仍然落后于竞争对手,如编码和Hard Prompt。该模型具有强大的图像信息提取功能和PDF文档内容提取功能,并能生成代码和解释代码。然而,在某些推理问题上,Gemini 1.5 Pro的表现有待提高。
⏩全员离开老东家,Stable Diffusion一作带团创业,出手即击败MJ v6、SD3,还开源
AI 图像和视频生成领域又加入了一个颇有实力的玩家。AI初创公司Stability AI的研究科学家Robin Rombach离职创办了Black Forest Labs,旨在推进用于图像和视频的高质量生成式深度学习模型,并已完成3100万美元的种子轮融资。他们推出了首个模型系列「FLUX.1」,包含了三个变体模型,具有极其丰富的图像细节、极强的prompt遵循能力和多样化风格。该实验室还计划推出所有人可用的SOTA文生视频模型。
- 作者:AI学长小林
- 链接:https://ai.linbintalk.com//article/0f682003-241f-4e33-9c94-2b0efa04c634
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。