AI在线 AI在线

字节跳动发布豆包大模型1.6:首个支持可调思考深度的国产模型

字节跳动旗下火山引擎近日发布豆包大模型1.6版本,这是国内首个原生支持分档调节思考长度的大语言模型。 新版本提供Minimal、Low、Medium、High四档思考深度选项,让用户根据任务复杂度灵活调整模型的推理过程,在输出质量和响应速度之间实现平衡。 从技术实现来看,可调思考长度是这次更新的核心功能。

字节跳动旗下火山引擎近日发布豆包大模型1.6版本,这是国内首个原生支持分档调节思考长度的大语言模型。新版本提供Minimal、Low、Medium、High四档思考深度选项,让用户根据任务复杂度灵活调整模型的推理过程,在输出质量和响应速度之间实现平衡。

从技术实现来看,可调思考长度是这次更新的核心功能。在低思考档位下,豆包1.6生成内容时的token消耗量比单一模式减少了77.5%,推理耗时缩短84.6%,但输出质量保持不变。这一机制使模型能够根据场景需求进行动态调整——对于简单问答或快速草拟等任务可选择低档位提升响应速度,而处理复杂推理或深度分析时则可切换至高档位确保输出质量。

除了标准版本,火山引擎还同步推出了豆包大模型1.6lite轻量版。该版本主要面向企业级应用场景,在推理速度和成本控制上进行了优化。根据官方评测数据,豆包1.6lite在企业场景测试中的综合表现相比前代豆包1.5pro提升了14%。在成本方面,针对使用量最大的0-32k输入区间,综合使用成本较豆包1.5pro降低了53.3%,这一降幅对于有大规模调用需求的企业客户具有实际意义。

从产品定位来看,豆包1.6的分档思考机制针对的是实际应用中的效率痛点。传统大模型通常采用固定的推理深度,导致简单任务过度计算造成资源浪费,而复杂任务又可能因推理不足影响质量。分档机制让用户能够根据具体需求选择合适的计算资源投入,在保证输出质量的前提下优化成本和时间。

不过需要指出的是,"思考长度"这一概念的具体技术实现方式官方尚未详细披露。从效果描述来看,可能涉及推理步骤数量、内部链式思考深度或计算资源分配策略的调整。用户在实际使用中需要通过测试找到不同任务类型与思考档位的最佳匹配关系,这也意味着存在一定的学习成本。

从市场竞争角度看,豆包1.6的发布体现了国产大模型在产品化和场景适配上的探索方向。相比单纯追求benchmark得分,可调思考深度这类面向实用性的功能创新,更贴近企业用户对成本控制和效率优化的实际需求。lite版本的推出也显示出厂商对中小规模企业市场的重视,试图通过降低使用门槛扩大用户覆盖面。

相关资讯

火山引擎发布豆包大模型1.6升级版,日均 Tokens 调用量突破30万亿!

火山引擎发布豆包大模型1.6升级版,日均 Tokens 调用量突破30万亿!

今日,火山引擎宣布对旗下豆包大模型矩阵进行全新发布和升级,并重磅推出“智能模型路由”服务,以加速企业迈向 Agentic AI 时代。 火山引擎此次共发布和升级了四款豆包大模型:豆包大模型1.6升级: 核心能力提升,原生支持四种思考长度,为复杂任务提供更精细的推理控制。 全新发布: 豆包大模型1.6lite、豆包语音合成模型2.0、豆包声音复刻模型2.0正式亮相,进一步完善了模型的轻量化和多模态能力。
10/16/2025 12:26:09 PM AI在线
​豆包大模型日均使用量破 50 万亿,火山引擎发布两大新品引领AI原生架构升级

​豆包大模型日均使用量破 50 万亿,火山引擎发布两大新品引领AI原生架构升级

在12月18日举办的FORCE原动力大会上,火山引擎交出了一份惊人的成绩单:截至今年12月,豆包大模型日均Tokens使用量已突破50万亿,稳居中国第一、全球第三。 会上,火山引擎正式发布了豆包大模型1.8与视频生成模型Seedance1.5pro。 其中,豆包1.8版本针对多模态Agent场景进行了深度优化,不仅视觉理解能力大幅提升,支持超长视频分析,更在工具调用和复杂指令遵循上达到了全球第一梯队水平。
12/18/2025 2:16:52 PM AI在线
火山引擎总裁谭待:大模型市场未来将迎十倍增长

火山引擎总裁谭待:大模型市场未来将迎十倍增长

在 FORCE 原动力大会上,火山引擎总裁谭待在接受媒体采访时,对公司旗下豆包大模型的表现做出了积极评价。 他指出,尽管在国内市场上,豆包大模型的成绩相对明显,但在全球范围内,如 OpenAI 和 Gemini 等竞争对手的表现同样突出。 因此,火山引擎在这一领域还有很多努力的空间,尤其是在全球市场的拓展上,谭待提到公司旗下的 Seedance 和 Seedream 在国际市场上的表现也不错。
12/18/2025 6:01:19 PM AI在线