报告信息
题目:在线集成:非稳态在线学习的理论框架
报告人:赵 鹏 博士,南京大学
摘要:在众多应用场景中,数据以流的方式不断积聚,因而要求学习模型具备在线更新的能力。在线学习因此成为解决面向流式数据预测甚至序贯决策问题的重要学习范式。然而,现实应用的数据收集环境往往呈现“非稳态”特性,即数据分布可能随时间不断变化,为现有理论方法带来了严峻挑战。本次报告将介绍我们在这一问题上的最新进展。具体而言,我们引入动态遗憾作为非稳态在线学习的性能度量准则,并提出“在线集成”的理论框架以优化该指标进而指导算法设计。基于该框架可以推导得到丰富的算法与理论结果,例如,针对在线学习的几类典型问题,通过该统一框架可以得到相应问题迄今最优、甚至理论最优的理论保障。