来源:云头条
2025 年 3 月 25 日,DeepSeek 悄然发布了一种新的大语言模型,该模型已经在 AI 行业掀起了轩然大波,不仅仅由于它的强大功能,还由于其部署方式。这款 641 GB 的模型名为 DeepSeek-V3-0324,今天出现在 AI 代码存储库 Hugging Face 上。
几乎没有任何公告,延续了这家公司低调发布强大产品的模式。
这次发布特别引人注目的地方在于模型的 MIT 许可证:使其可以免费用于商业用途,另外早期报道称它可以直接在消费级硬件上运行,具体指搭载 M3 Ultra 芯片的苹果 Mac Studio 上。
,时长00:31
AI 研究员 Awni Hannun 在社交媒体上写道:“新的 4 位版本 DeepSeek-V3-0324 在配备 mlx-lm 的 512GB M3 Ultra 上能够以每秒超过 20 个 token 的速度运行!”虽然售价 9499 美元的 Mac Studio 可能扩大了“消费级硬件”的定义,但能够在本地运行如此庞大的模型与最先进的 AI 通常需要数据中心才能运行大相径庭。
6850 亿个参数的模型没有随附的白皮书、博文或营销噱头,只有一个空白的 README 文件和模型权重本身。
这种做法与诸多 AI 公司常见的精心策划产品发布形成了鲜明对照,很多 AI 公司常在实际发布产品之前进行长达数月的炒作。
早期测试人员报告新版本较上一版本有显著改进。AI 研究员 Xeophon 在 X.com 上的一则帖子中宣称:“我在内部测试台上测试了新的 DeepSeek V3,发现它在所有测试的所有指标上都有了巨大飞跃。它现在是最出色的非推理模型,取代 Sonnet 3.5。”
如果这一说法得到更广泛的测试验证,那么 DeepSeek 的新模型将超越 Anthropic 的 Claude Sonnet 3.5,后者是最备受推崇的商业 AI 系统之一。
不像 Sonnet 需要订阅,DeepSeek-V3-0324 的权重可供任何人免费下载和使用。
DeepSeek-V3-0324 采用混合专家(MoE)架构,从根本上重塑了大语言模型的运行方式。
传统模型针对每项任务激活其全部参数,而 DeepSeek 的方法在特定任务期间仅激活其 6850 亿个参数中的约 370 亿个。
这种选择性激活无异于模型效率迎来根本性转变。通过仅针对每项特定任务激活最相关的“专家”参数,DeepSeek 实现了可与庞大得多的完全激活的模型媲美的性能,同时大大降低了计算需求。
该模型采用了两项另外的突破性技术:多头潜在注意力(MLA)和多 token 预测(MTP)。MLA 增强了模型面对长篇幅文本保持上下文的能力,而 MTP 每一步生成多个 token,而不是通常的每次生成一个 token。这些创新共同将输出速度提高了近 80%。
开发者工具创建者 Simon Willison 在一篇博文中特别指出,4 位量化版本可将所需的存储占用空间减少到 352GB,从而可以在搭载 M3 Ultra 芯片的 Mac Studio 等高端消费级硬件上运行。
这意味着 AI 部署有望迎来重大转变。
虽然传统的 AI 基础设施通常依赖多块数千瓦功耗的英伟达 GPU,但 Mac Studio 在推理过程中的功耗却不到 200 瓦。
这种效率差距表明,AI 行业可能需要重新考虑头部模型性能对基础设施的需求方面的认识。
参考资料:https://venturebeat.com/ai/deepseek-v3-now-runs-at-20-tokens-per-second-on-mac-studio-and-thats-a-nightmare-for-openai/
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com