时间序列分析 (Time Series Analysis

2021年秋季,周五上午10:10-12:00,仙II-211

 

课程简介

时间序列(time series)是一组按照时间发生先后顺序进行排列的离散序列,是日常生活中最常见的数据形式之一。对时间序列的分析是既是统计学中的重要问题,也是人工智能、数据挖掘的一个重要应用方向。

本课程面向人工智能学院的本科生和研究生,重点关注统计学中分析时间序列的基本思路、模型以及方法。同时强调使用人工智能技术对时序数据这一种特殊的数据类型进行分析,也关注使用“时间序列分析”中的思路看待和解决人工智能领域的实际问题。

课程内容将从时间序列的发展历程、平稳性、经典分析模型等概念先后推进。课程中也会介绍人工智能的相关技术,如使用循环神经网络进行时间序列的建模,或使用时间序列中的自回归、指数平均思想建模机器学习、计算机视觉的重要问题。

 

课程安排

 

主题

上课时间

知识点

阅读材料

 

导论

课程介绍,导论,

回归模型

01

93

²  课程概况

²  时间序列的基本定义

Ø  [1] 1.1 – 1.3

02

910

²  时间序列分析发展简史

²  概率分布基础知识

Ø  [5], [6]

Ø  [2] 2.1 – 2.8

03

917

²  回归分析

Ø  [3] 3.1 – 3.4

Ø  [1] 6.3

924

²  指数平均

108

²  指数平均及其应用

Ø  [7] – [14]

时间序列模型及性质

时间序列的

随机过程视角

04

1015

²  随机过程用于时间序列分析

²  时间序列的平稳性

²  时间序列的相关统计量

Ø  [1] 2.1 – 2.2

Ø  [2] 5.1 – 5.3

Ø  [15] 2, 3.1 – 3.2

²  时间序列统计量的估计

²  平稳序列的建模思想

²  线性过程模型

1022

基于随机过程视角的

经典模型

05

1029

²  AR模型

²  MA模型

Ø  [1] 3.1 – 3.3

Ø  [1] 4.6, 5.1 – 5.3

Ø  [2] 5.4 – 5.5

Ø  [16]

115

²  AR思想的应用

06

1119

²  ARMA模型

²  ARIMA模型

²  时序模型的预测

1126

时间序列模型的

辨识和优化

针对非平稳时间序列的

经典模型

07

123

²  时序模型的辨识

²  时序模型的优化

²  [1] 2.3

²  [1] 4.2 – 4.3

²  [2] 6.1 – 6.6

时间序列模型的扩展

假设扩展

08

1210

²  时间序列分析的常用变换

²  有季节效应的时序模型构建

²  [1] 6.1, 6.2, 6.4

²  [17]

维度扩展

09

1217

²  基于线性系统的时间序列模型

²  多元时间序列模型

²  状态空间模型

²  [1] 8.1 – 8.2

²  [2] 8.1 – 8.4

²  [2] 9.1 – 9.2

²  [2] 10.1 – 10.3

建模方式扩展

10

1224

²  基于机器学习的时间序列分析

²  [18] – [26]

 

注:上述表格会根据实际授课情况进行更新,请以授课后更新的内容为准。

主要阅读材料:

[1]   易丹辉、王燕. 应用时间序列分析. 人民大学出版社. 2019.

[2]   Henrik Madsen. Time Series Analysis. Chapman & Hall. 2008

 

其他阅读材料:

[3]   James D. Hamilton. 时间序列分析. 中国人民大学出版社. 2015.

[4]   何书元. 应用时间序列分析. 北京大学出版社. 2004.

[5]   陈希. 数理统计学简史. 哈尔滨工业大学出版社. 2021.

[6]   聂淑媛. 时间序列分析发展简史. 科学出版社. 2019.

[7]   Diederik P. Kingma, Jimmy Ba. Adam: A Method for Stochastic Optimization. ICLR 2015

[8]   Sergey Ioffe, Christian Szegedy. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. ICML 2015: 448-456

[9]   Samuli Laine, Timo Aila. Temporal Ensembling for Semi-Supervised Learning. ICLR 2017

[10]            Ben Athiwaratkun, et al. There Are Many Consistent Explanations of Unlabeled Data: Why You Should Average. ICLR 2019

[11]            Kaiming He, et al. Momentum Contrast for Unsupervised Visual Representation Learning. CVPR 2020: 9726-9735

[12]            Zhaowei Cai, et al. Exponential Moving Average Normalization for Self-Supervised and Semi-Supervised Learning. CVPR 2021: 194-203

[13]            Sheng Liu, et al. Early-Learning Regularization Prevents Memorization of Noisy Labels. NeurIPS 2020

[14]            Junnan Li, Caiming Xiong, Steven C. H. Hoi. MoPro: Webly Supervised Learning with Momentum Prototypes. ICLR 2021

[15]            George E. P. Box, Gwilym M. Jenkins, Gregory C. Reinsel, Greta M. Ljung. Time Series Analysis Forecasting and Control (5th Edition). Wiley 2016

[16]            Stanislas Lauly, Yin Zheng, Alexandre Allauzen, Hugo Larochelle. Document Neural Autoregressive Distribution Estimation. JMLR. 18: 113:1-113:24

[17]            Zhilu Zhang, Mert R. Sabuncu. Generalized Cross Entropy Loss for Training Deep Neural Networks with Noisy Labels. NeurIPS 2018

[18]            Ismail Fawaz, H., Forestier, G., Weber, J. et al. Deep learning for time series classification: a review. Data Mining and Knowledge Discovery. 2019

[19]            Spyros Makridakis, EvangelosSpiliotis, Vassilios Assimakopoulos, The M4 Competition: 100,000 time series and 61 forecasting methods.International Journal of Forecasting. 2020

[20]            Ilya Sutskever, Oriol Vinyals, Quoc V. Le. Sequence to Sequence Learning with Neural Networks. NIPS 2014

[21]            Sepp Hochreiter, Jürgen Schmidhuber.Long Short-Term Memory. Neural Comput. 9(8): 1735-1780 (1997)

[22]            Ashish Vaswani et al.Attention is All you Need. NIPS 2017: 5998-6008

[23]            Shaojie Bai, J. Zico Kolter, Vladlen Koltun. An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling. CoRR2018

[24]            Sean J. Taylor, Benjamin Letham. Forecasting at Scale. PeerJPrepr. 5: e3190 (2017)

[25]            SlawekSmyl. A hybrid method of exponential smoothing and recurrent neural networks for time series forecasting. International Journal of Forecasting. 2020

[26]            Boris N. Oreshkin, Dmitri Carpov, Nicolas Chapados, YoshuaBengio. N-BEATS: Neural basis expansion analysis for interpretable time series forecasting. ICLR2020

 

课程作业

 

课程作业包括书面作业和编程作业两类。请通过教学立方(邀请码:MEUUFXH5)查看作业要求,并进行作业提交。

 

联系方式

 

主讲教师:叶翰嘉 yehj@nju.edu.cn

    教:  shiy@lamda.nju.edu.cn