豆包大模型 1.6 升级,原生支持 4 种思考长度
豆包大模型1.6发布全新升级:提供 Minimal、Low、Medium、High 四种思考长度,据称是国内首个原生支持“分档调节思考长度”的模型。
以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包1.6模型总输出 Tokens下降77.5%、思考时间下降84.6%,模型效果保持不变。
此外,为进一步满足企业的多样化需求,火山引擎正式推出豆包大模型1.6 lite(Doubao-Seed-1.6-lite),相比旗舰模型豆包1.6更轻量、推理速度更快、更具性价比。
效果上,该模型超越豆包大模型1.5 pro(Doubao-Seed-1.5-pro),在企业级场景测评中较豆包1.5 pro提升14%;价格上,在使用量最大的0-32k 输入区间里,综合使用成本较豆包1.5 pro 降低53.3%。
