首页 工具分享 DeepSeek-V3.2发布

DeepSeek-V3.2发布

2025年12月,DeepSeek正式发布V3.2系列模型,其推理能力可与GPT-5媲美,并首次实现“边思考边使用工具”的交互模式,同时API调用成本大幅降低50%以上,支持128K长上下文,模型权重已在Hugging Face开源。

2025年12月,DeepSeek正式推出了两款新一代大模型:标准版DeepSeek-V3.2与长思考增强版DeepSeek-V3.2-Speciale。此次发布被业界视为开源AI阵营对闭源模型的一次强力回应。

根据官方测试数据,DeepSeek-V3.2在公开的推理类基准测试中的整体表现已达到GPT-5水平,仅在少数项目上略逊于Gemini 3 Pro。在数学计算、复杂逻辑、多步推演等关键任务上,V3.2已具备与领先闭源模型竞争的实力,刷新了国内开源模型推理能力的最佳纪录。

本次升级的核心突破在于首次系统性地实现了“边思考边使用工具”(Thinking in Tool-Use)的交互范式。与此前模型“先思考、再调工具、最后给答案”的线性流程不同,V3.2允许模型在推理过程中交错进行工具调用:先推演一段逻辑,然后调用工具获取信息,再基于结果继续原有思路进行推演。这种模式保证了复杂任务中思维轨迹的连续性,避免了因工具调用导致的思维“断点”,显著提升了处理多步骤、跨领域复杂任务的效率与可靠性。

在成本控制方面,DeepSeek-V3.2的API定价实现了大幅优化。在新的价格政策下,开发者调用API的成本降低了50%以上。其输入(缓存未命中)成本为2元/百万Tokens,输出成本为3元/百万Tokens,这使得大规模应用的门槛显著降低。

技术层面,V3.2引入了DeepSeek稀疏注意力机制(DSA),首次实现了细粒度稀疏注意力。该机制通过“闪电索引器”预先筛选关键信息,将长文本处理的计算复杂度从近乎平方级压缩到接近线性,从而在支持128K超长上下文的同时,大幅提升了训练和推理效率,且几乎不影响模型输出质量。

目前,标准版DeepSeek-V3.2已在官方网页端、App和API全面更新,适合日常问答和通用智能体任务。Speciale版本则专注于极致的数学与逻辑推理能力,在IMO 2025等顶级竞赛中达到金牌级水平,目前以临时API形式提供研究使用。模型的完整权重已在Hugging Face平台开源,供社区下载与研究。

果葡萄官网的头像

作者: 果葡萄官网

专注人工智能领域,导航资源聚合平台
没有了

已是最新文章

没有了

已是最早文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

返回顶部