您现在的位置是:首页 > 文章详情

谷歌发布长上下文基础模型 TimesFM-2.5

日期:2025-09-17点击:3

谷歌研究团队推出了TimesFM-2.5,这是一个具有2亿参数、解码器单一结构的时间序列基础模型。

相比前一版本,TimesFM-2.5通过将参数规模减半的同时扩展上下文长度,该模型在效率与性能上实现了显著突破。

TimesFM-2.5主要亮点:

  • 更小更快:参数数量减少至200M,同时提高了准确性。
  • 更长上下文:支持长达16K的上下文长度,能够进行更深入的历史数据预测。
  • 基准领跑:在GIFT-Eval中,TimesFM-2.5在点预测和概率预测方面(MASE、CRPS指标)均排名第一。

目前,TimesFM-2.5已在Hugging Face开放访问,与BigQuery及Model Garden的集成也正在推进中,有望加速零样本时间序列预测在真实业务场景中的落地应用。

https://huggingface.co/google/timesfm-2.5-200m-pytorch

原文链接:https://www.oschina.net/news/372802/google-timesfm-2.5-200m-pytorch
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章