论文部分内容阅读
分布式优化理论和应用已经成为系统和控制科学的重要发展方向之一,在优化理论的研究过程中,重点关注优化算法的性能研究,包括算法的分析复杂性、算数复杂性和收敛性能。分布式优化一般有两大类研究问题:一类是对性能指标函数的优化,另一类是对系统动态过程的优化。主要的突出理论研究属于第一类优化,每个智能体有各自的代价函数,且整个网络的代价函数由这些智能体的函数和来表示,此网络的目的是通过各个智能体之间的局部信息交流而完成整个代价函数的优化。传统的梯度下降法(DGD)虽然可以保证收敛到最优解,但是对网络要求偏高,且收敛速度偏慢。本文拟限制网络权重矩阵仅为行随机的情况下,对算法的收敛速度进行优化。权重矩阵仅为行随机意味着每个智能体迭代算法时仅需要了解其入度邻居的信息,而不需要了解其出度邻居的信息。更加具有实践意义。而算法的收敛速度,在传统DGD算法中收敛速度会因为下降步长而变慢。本文拟在引入梯度追踪的机制下,加速算法的收敛性能。随着网络规模的扩大,传统的集中控制和优化技术难以解决复杂网络优化问题。分布式优化框架不要求集中式的数据控制,且有个人隐私保护和卓越的网络拓展性和鲁棒性等优点。在实践中,无向网络拓扑是难以实现的。因此研究有向多智能体网络的快速优化算法具有重要意义。而大部分有向网络中的分布式算法要求其权重矩阵需要有双随机性,这并不能在任意的有向图中被构造,本文拟限制网络权重矩阵仅为行随机的情况下,对算法的收敛速度进行优化。梯度追踪作为一种快速分布式优化方法在加速算法收敛上具有很好的实用性。本文拟使用梯度追踪作为加速分布式优化算法的机制。本文研究了一个多智能体网络上的分布式优化问题,其中智能体的目标是协同优化所有局部目标函数的和。本文讨论了智能体之间的网络拓扑是强连通且有向的。该算法利用行随机权重矩阵和不协调步长。在目标函数为强凸且具有Lipschitz连续梯度的条件下,只要选取的步长不超过一个精确的特征上界,我们证明了该算法比其它算法更快地线性收敛到全局最优解。数值实验也证实了理论分析的正确性。