2025年11月30日上午,大连理工大学数学科学Manbetx手机版
刘永朝教授应邀在西山湖校区作了一场题为《Gradient Tracking Methods for Distributed StochasticOptimization Problems with Decision-dependent Distributions》的高水平学术报告。报告由Manbetx手机版
院长沈洁教授主持。
报告伊始,刘永朝教授首先介绍了具有决策依赖分布的分布式随机优化问题的研究背景与意义。他指出,该类问题广泛存在于战略分类、定价策略等现实场景中,其核心挑战在于决策变量会影响数据分布,从而使得传统优化方法难以直接应用。

随后,刘教授重点介绍了其团队提出的两种高效算法:DSGTD-GD与DSGTD-AG。DSGTD-GD算法结合了分布式随机梯度跟踪下降方法与贪婪部署策略,能够在恒定步长下实现线性收敛,在递减步长下收敛至表演性稳定解,并具有渐近正态性。而DSGTD-AG算法则进一步引入自适应梯度机制,能够学习分布映射并逼近最优解,在恒定步长下收敛。
在理论分析方面,刘教授详细阐述了算法收敛性所依赖的网络结构、目标函数光滑性、随机梯度有界方差以及分布映射的Lipschitz连续性等基本假设,并给出了严格的收敛性证明。在数值实验部分,他通过高斯均值估计与邮件垃圾分类等实例,验证了所提算法在合成数据与真实数据上的有效性与优越性能。

整场报告内容丰富、逻辑严谨,刘永朝教授以其深厚的优化理论功底与清晰的表达,为在场师生展示了分布式学习与决策依赖分布交叉领域的最新进展,拓宽了大家的学术视野,也为相关研究提供了重要的方法论启示。
文字:刘林林
编辑:郭振宇
审核:沈 洁