Qwen3 系列模型迎来新第三方部署和价格特惠
阿里巴巴的Qwen3系列模型近期在多个平台获得部署并在官方平台开启了价格特惠。
Cerebras宣布推出Qwen3-235B模型,实现了每秒1500个token的推理速度,目前可进行有限制的免费体验。
阿里云的通义灵码IDE已集成Qwen3-Coder,并去掉了原有的DeepSeek模型。GMI inference cloud也上线了Qwen3 Coder 480B A35B Instruct FP8版本,定价为输入$1.00/M Tokens,输出$2.00/M Tokens。
阿里云百炼平台宣布对Qwen3-Coder-Plus进行为期一个月的限时降价,并进一步对上下文缓存功能进行说明:“上下文缓存的命中概率并不是100%,即使是上下文完全一致的请求,也存在无法命中的概率,命中概率依据系统判断而定。”
|
Token 数量 |
输入成本 (每千Token) |
输出成本 (每千Token) |
|---|---|---|
| 0-32K |
0.004 元 |
0.016 元 |
| 32K-128K |
0.0042 元 (原价 0.006 元的 7折) |
0.0168 元 (原价 0.024 元的 7折) |
| 128K-256K |
0.005 元 (原价 0.01 元的 5折) |
0.02 元 (原价 0.04 元的 5折) |
| 256K-1M |
0.01 元 (原价 0.02 元的 5折) |
0.1 元 (原价 0.2 元的 5折) |
详情:https://help.aliyun.com/zh/model-studio/qwen3-coder-plus-price-drop
