Advertisement

LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by Long-Short-Term Prompting

阅读量:

本文是LLM系列文章,针对《LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by Long-Short-Term Prompting》的翻译。

LSTPrompt:大型语言模型利用长短期提示作为零样本时间序列预报器

  • 摘要
  • 1 引言
  • 2 方法
  • 3 实验
  • 4 结论

摘要

时间序列预测(TSF)在现实世界中有着广泛的应用。提示脱离搁置的大型语言模型(LLM)展示了强大的零样本TSF功能,同时保持了计算效率。然而,现有的提示方法将TSF过于简化为语言下一个表征预测,忽略了其动态性质,并且缺乏与最先进的提示策略(如思想链)的集成。因此,我们提出了LSTPrompt,这是一种在零样本TSF任务中提示LLM的新方法。LSTPrompt将TSF分解为短期和长期预测子任务,并为每个任务定制提示。LSTPrompt指导LLM定期重新评估预测机制,以增强适应性。广泛的评估表明,LSTPrompt的性能始终优于现有的提示方法,并且与基础TSF模型相比,结果具有竞争力。

1 引言

2 方法

3 实验

4 结论

在本文中,我们介绍了LSTPrompt,这是一种通过提示LLM实现零样本TSF任务的新提示范式。LSTPrompt通过两个创新模块使LLM能够实现准确的零样本TSF任务:TimeDecomp,它将零样本TSF任务分解为一系列思想链子任务;TimeBreath,它鼓励LLM定期重新评估预测机制。大量实验验证了LSTPrompt的有效性,它始终优于SOTA prompt方法,并且总体上显示出比SOTA PTM更好的性能。

全部评论 (0)

还没有任何评论哟~