谷歌发布长上下文基础模型 TimesFM-2.5
谷歌研究团队推出了TimesFM-2.5,这是一个具有2亿参数、解码器单一结构的时间序列基础模型。 相比前一版本,TimesFM-2.5通过将参数规模减半的同时扩展上下文长度,该模型在效率与性能上实现了显著突破。 TimesFM-2.5主要亮点: 更小更快:参数数量减少至200M,同时提高了准确性。 更长上下文:支持长达16K的上下文长度,能够进行更深入的历史数据预测。 基准领跑:在GIFT-Eval中,TimesFM-2.5在点预测和概率预测方面(MASE、CRPS指标)均排名第一。 目前,TimesFM-2.5已在Hugging Face开放访问,与BigQuery及Model Garden的集成也正在推进中,有望加速零样本时间序列预测在真实业务场景中的落地应用。 https://huggingface.co/google/timesfm-2.5-200m-pytorch
