AI日报
【AI资讯】8月5日
00 分钟
2024-8-5
2024-8-5
slug
summary
tags
icon
password

⏩70倍极致压缩!大模型的检查点再多也不怕

华为诺亚实验室提出了一种极致压缩检查点技术,能够无损压缩模型70倍,大幅降低训练中的存储开销。该方法利用训练中检查点的残差信息和优化器动量联合进行压缩,具有创新性。实验结果表明,在大语言模型和视觉模型上都能取得很好的效果,压缩后的模型问答能力没有损害。
 

英伟达阉割版B200A曝光!最强芯片架构Blackwell难产:产能不够,刀法来凑

英伟达的B200芯片因产能不足推迟三个月,推出阉割版B200A以满足中低端AI需求,内存带宽从8TB/s降至4TB/s。B200的生产面临挑战,包括高功率密度和供电散热问题,尽管英伟达表示产量预计在下半年增加,但AI巨头需要更多时间来构建B200集群进行大模型训练。
 

不敢用ChatGPT水论文了!OpenAI反作弊工具曝光,准确度高达99.9%,好消息:还没上线

OpenAI正在开发一款检测工具,准确率高达99.9%,用于识别是否使用ChatGPT生成论文或作业,但因用户反馈和技术争议,该工具尚未上线。调查显示,近三分之一的用户表示如果有反作弊工具,他们会减少使用ChatGPT,导致公司内部对此工具的发布意见不一。
 

⏩小扎自曝砸重金训Llama 4,24万块GPU齐发力!预计2025年发布

Meta计划在2025年发布Llama 4,训练所需的计算量将是Llama 3的十倍,预计使用24万块GPU。尽管面临高昂的训练成本,扎克伯格仍坚持投资AI和元宇宙,认为未来每个企业都将需要AI智能体来与客户互动。
上一篇
【AI资讯】8月6日
下一篇
【AI资讯】8月4日