研究提出新型时间序列预测框架

查找参加最新学术会议,发表EI、SCI论文,上学术会议云
热门国际学术会议推荐 | 出版检索稳定,快至7天录用
2026年第二届无线与光通信国际会议(CWOC 2026)
2026年第五届算法、计算和机器学习国际会议(CACML 2026)
2026年第八届软件工程和计算机科学国际会议(CSECS 2026)
2026年多尺度人工智能国际会议(MAI 2026)
2026年第四届亚洲计算机视觉、图像处理与模式识别国际会议 (CVIPPR 2026)
文章导读
你还在用传统方法做销量、股价或流量预测吗?当多数人试图用微调“硬刚”大模型时,中科院软件所的新研究揭示了一条反直觉的路径:不更新模型参数,反而能让预测更准、更快。我们发现,问题根本不在于数据量不够大,而在于你输入信息的方式错了——那些被忽略的上下文示例,其实藏着决定成败的关键信号。LVICL框架通过向量注入重构了人与模型的协作逻辑,把计算开销砍掉一大半,性能却更稳。但真正值得警惕的是:如果连示例顺序都影响结果,你过去的实验到底有多少是可信的?
— 内容由好学术AI分析文章内容生成,仅供参考。

近期,中国科学院软件研究所研究团队为提升大语言模型时间序列预测性能,提出了向量注入式上下文学习框架。该框架能够稳定提升时间序列预测性能,并可以降低计算开销。

大语言模型进行时间序列预测时面临一项主要挑战——预训练文本与时间序列数据在分布与结构上存在差异。传统方法采用全量微调来减少这种差异,但其训练成本高、显存占用大,限制了实际应用。

研究团队提出引入上下文学习的方法LVICL。该方法通过在输入提示中引入任务示例,使模型无需更新参数即可实现“类似微调”的效果。为提升上下文学习对示例选择与顺序敏感的不稳定问题,该方法提取示例的向量表示,并以置换不变的方法进行聚合,从而消除顺序敏感性;采用轻量适配器对聚合后的上下文向量进行精练,抑制其中可能干扰预测的分量,增强对示例选择的鲁棒性;将优化后的向量注入到大语言模型各层的残差流中,以可控方式引导模型进行预测。

研究团队在多个时间序列预测基准数据集上对LVICL进行系统评估。实验表明,LVICL在保持大语言模型完全冻结、训练开销降低的前提下,能够稳定复现并进一步放大上下文学习带来的收益。与轻量微调方法相比,LVICL在多种数据集与实验设置下均表现出更强的预测能力,并在效率与性能的平衡上展现出更好的实用性。

相关论文被互联网领域顶级国际学术会议The Web Conference 2026(WWW-26)录用。

论文链接

研究提出新型时间序列预测框架

LVICL总体框架

© 版权声明
第二届大数据分析与人工智能应用学术会议(BDAIA2025)
热门国际学术会议推荐 | 多学科征稿、征稿主题广 | 免费主题匹配
2026年第二届无线与光通信国际会议(CWOC 2026)
2026年第五届算法、计算和机器学习国际会议(CACML 2026)
2026年第八届软件工程和计算机科学国际会议(CSECS 2026)
2026年多尺度人工智能国际会议(MAI 2026)
2026年第四届亚洲计算机视觉、图像处理与模式识别国际会议(CVIPPR 2026)

相关文章

查找最新学术会议,发表EI、SCI论文,上学术会议云
第三届机器学习与自动化国际学术会议(CONF-MLA 2025)
热门国际学术会议推荐 | 立即查看超全会议列表

5 条评论

  • 石阶苔痕
    石阶苔痕 读者

    我之前也试过全量微调,显存炸了。

    北京北京市
    回复
  • 光影幽灵
    光影幽灵 游客

    这个框架在小模型上也能直接用吗?需要特殊的提示格式吗?

    未知
    回复
  • 毛球仓鼠
    毛球仓鼠 游客

    其实向量注入还能配合LoRA一起用。

    湖北省武汉市
    回复
  • 意识上传员
    意识上传员 游客

    真是省事又高效,点赞。

    河南省安阳市
    回复
  • 魂断
    魂断 读者

    这招挺省显存的,省事。

    广东省东莞市
    回复