AI在线 AI在线

字节跳动发布豆包大模型1.6:首个支持可调思考深度的国产模型

字节跳动旗下火山引擎近日发布豆包大模型1.6版本,这是国内首个原生支持分档调节思考长度的大语言模型。 新版本提供Minimal、Low、Medium、High四档思考深度选项,让用户根据任务复杂度灵活调整模型的推理过程,在输出质量和响应速度之间实现平衡。 从技术实现来看,可调思考长度是这次更新的核心功能。

字节跳动旗下火山引擎近日发布豆包大模型1.6版本,这是国内首个原生支持分档调节思考长度的大语言模型。新版本提供Minimal、Low、Medium、High四档思考深度选项,让用户根据任务复杂度灵活调整模型的推理过程,在输出质量和响应速度之间实现平衡。

从技术实现来看,可调思考长度是这次更新的核心功能。在低思考档位下,豆包1.6生成内容时的token消耗量比单一模式减少了77.5%,推理耗时缩短84.6%,但输出质量保持不变。这一机制使模型能够根据场景需求进行动态调整——对于简单问答或快速草拟等任务可选择低档位提升响应速度,而处理复杂推理或深度分析时则可切换至高档位确保输出质量。

除了标准版本,火山引擎还同步推出了豆包大模型1.6lite轻量版。该版本主要面向企业级应用场景,在推理速度和成本控制上进行了优化。根据官方评测数据,豆包1.6lite在企业场景测试中的综合表现相比前代豆包1.5pro提升了14%。在成本方面,针对使用量最大的0-32k输入区间,综合使用成本较豆包1.5pro降低了53.3%,这一降幅对于有大规模调用需求的企业客户具有实际意义。

从产品定位来看,豆包1.6的分档思考机制针对的是实际应用中的效率痛点。传统大模型通常采用固定的推理深度,导致简单任务过度计算造成资源浪费,而复杂任务又可能因推理不足影响质量。分档机制让用户能够根据具体需求选择合适的计算资源投入,在保证输出质量的前提下优化成本和时间。

不过需要指出的是,"思考长度"这一概念的具体技术实现方式官方尚未详细披露。从效果描述来看,可能涉及推理步骤数量、内部链式思考深度或计算资源分配策略的调整。用户在实际使用中需要通过测试找到不同任务类型与思考档位的最佳匹配关系,这也意味着存在一定的学习成本。

从市场竞争角度看,豆包1.6的发布体现了国产大模型在产品化和场景适配上的探索方向。相比单纯追求benchmark得分,可调思考深度这类面向实用性的功能创新,更贴近企业用户对成本控制和效率优化的实际需求。lite版本的推出也显示出厂商对中小规模企业市场的重视,试图通过降低使用门槛扩大用户覆盖面。

相关资讯

火山引擎发布豆包大模型1.6升级版,日均 Tokens 调用量突破30万亿!

今日,火山引擎宣布对旗下豆包大模型矩阵进行全新发布和升级,并重磅推出“智能模型路由”服务,以加速企业迈向 Agentic AI 时代。 火山引擎此次共发布和升级了四款豆包大模型:豆包大模型1.6升级: 核心能力提升,原生支持四种思考长度,为复杂任务提供更精细的推理控制。 全新发布: 豆包大模型1.6lite、豆包语音合成模型2.0、豆包声音复刻模型2.0正式亮相,进一步完善了模型的轻量化和多模态能力。
10/16/2025 12:26:09 PM
AI在线

推理能力飞跃?豆包1.5深度思考模型即将正式服务企业

火山引擎今日发布活动预热,正式宣布其新款豆包大模型将于明日(4月17日)在FORCE LINK AI创新巡展杭州站上隆重发布。 官方信息显示,此次发布会将带来豆包大模型家族的全新升级,并特别推出备受瞩目的豆包1.5深度思考模型。 此前已有消息透露,豆包APP和桌面端已针对“深度思考模式”进行了多轮实验性测试。
4/16/2025 6:01:15 PM
AI在线

豆包深度思考和文生图3.0模型正式开放API 对企业客户开放

豆包大模型近日发布了系列更新,其中豆包1.5·深度思考模型和豆包文生图模型3.0正式通过火山引擎开放 API,供开发者和企业客户使用。 这两款模型在推理任务和通用任务的综合表现达到了业界前沿水平,并在视觉推理和图像生成方面取得了显著进展。 豆包1.5·深度思考模型在专业领域推理任务中表现出色,数学推理 AIME2024测试得分追平 OpenAI o3-mini-high,编程竞赛 Codeforces pass@8得分接近 OpenAI o1,科学推理 GPQA 得分接近 o3-mini-high,均达到或接近全球第一梯队。
4/17/2025 2:01:15 PM
AI在线
  • 1