最优控制理论是数学最优化中的分支,要找到动力系统在特定一段时间的控制,可以使特定的损失函数最佳化[1]。最佳控制在科学、工程及作业研究上都有很多应用,例如其控制的系统可能是航天器,控制为其动力来源的火箭推进器,目标是在消耗最小燃料的情形下登陆月球[2],其系统也可能是国家的经济,目标是使失业降到最低,控制是财政政策货币政策[3]。系统也可以是作业研究的运筹学,以最佳控制的框架来进行研究[4][5]

最优控制理论是变分法的推广,着重于研究使控制系统的指标达到最优化的条件和方法[6]。这门学科的开创性工作主要是由1950年代前苏联列夫·庞特里亚金和美国的理查德·贝尔曼所完成,这些是以爱德华J.麦克沙恩英语Edward J. McShane所发展的变分法为其基础[7]。最优控制可以视为是控制理论中的一种控制策略[1]

通用方法

编辑

最佳控制是要找到一系统的控制律,以满足特定的最佳化准则。控制问题会包括费用泛函(cost functional),是状态以及控制变数的泛函。 最佳控制要将费用泛函最小化,会表示成一组描述控制变数路径的微分方程。最佳控制可以用庞特里亚金最大化原理推导(这是必要条件)[8],或是求解哈密顿-雅可比-贝尔曼方程(充分条件)。

以一个简单的例子来说明。考虑一部车开在山区的直线道路上。问题是,驾驶需如何驾驶才能最快到目的地?此例中的“控制律”是指控制油门、换档或是刹车的方式。“系统”包括车辆以及道路,“最佳化准则”是指使驾驶时间最短。控制问题中一般也会有辅助的限制条件,例如车辆的油量有其限制、油门可提供的加速度及车速也都有限制。适当的费用函数会是数学表示式,将驾驶时间表示为速度、道路条件以及系统初始条件的函数。

另一个相关的最佳化问题是在车辆在一定时间抵达目标的前提下,让油耗降到最低。

更通用的最佳控制问题架构如下[1]:最小化以下的连续时间费用泛函

 

需符合以下的一阶动态限制(状态方程)

 

几何的“路径限制”

 

以及终点条件

 

其中 是状态, 是控制, 是自变数(一般来说,是时间), 是初始时间, 是结束时间。  称为“结束点成本”及“运行成本”。在变分法中,  会称为Mayer项以及拉格朗日乘数。其中的路径限制多半是不等式的限制,在最佳解时,该限制不等式多半不会在恰好为零的情形。以上的最佳控制问题也可能有多个解(其解不唯一),此时的解会称为是“局部最小化”。

LQ控制器

编辑

在通用的最佳控制问题中,有一种特殊的问题是线性二次(linear quadratic, LQ)最佳控制问题,其解称为LQR控制器。LQ问题可以表示为,将以下二次形式的连续时间费用泛函最小化

 

需符合以下的线性一阶动态限制

 

以及初始条件

 

在LQ问题中,有一种特殊型式的问题称为LQR控制器,是指其中所有的矩阵(    )都是常数,其初始时间为0,其结束时间设定为 (最后一个假设称为是无限时间长度)。LQR控制器如下,要针对无限时间的二次连续时间成本泛函进行最小化

 

其限制条件是要满足以下的线性非时变一阶动态方程式

 

以及初始条件

 

若是有限时间的例子,矩阵会有额外的限制,  需分别是半正定矩阵及正定矩阵。无限时间的情形下,矩阵无此限制,但需要常数矩阵。有关有限时间下,矩阵的额外限制   and  可以确保成本泛函仍为正。而且,为了要确保成本泛函有界,会有一个额外条件,会要求系统 可控制性。LQ或是LQR的成本泛函都可以视为是最小化“控制能量”(以二次式表示)的手段。

无限时间的问题(LQR问题)限制太多,而且假设系统运作在零状态,因此也会使系统输出维持在零状态,在本质上用处不大。不过若要求解使系统运作在非零输出准位下的问题,可以先求解零输出准位的问题,再以此为基础求解。实际上,可以证明非零输出准位的问题可以用以下的直接方式求解。在经典最佳控制理论中可以证明LQ(或LQR)最佳控制可以表示为以下的回授型式

 

其中 是适当维度的矩阵,定义如下

 

 是微分Riccati方程的解,微分Riccati方程如下:

 

在有限时间的LQ问题中,Riccati方程会用终端边界条件,以逆转时间的方式积分

 

在无限时间的LQR问题中,微分Riccati方程会变成以下的代数Riccati方程(algebraic Riccati equation,ARE):

 

由于代数Riccati方程是由无限时间的LQR问题产生的,矩阵    都是常数。代数Riccati方程一般会有很多个解,要用正定(或半正定)的解去计算回授增益。LQ(LQR)问题后来是由鲁道夫·卡尔曼所解[9]

最佳控制的数值方法

编辑

最优控制问题多半是非线性的,一般而言没有解析解(例如LQ最佳控制问题)。因此,需要用数值方法来求解最佳控制问题。在最佳控制的初期(约1950年代到1980年代),常用来求解最佳控制问题的方式是“间接法”(indirect methods)。间接法会用变分法来求得一阶的最佳化条件。条件会形成二点(或是复杂的问题,可能会是三点)的边值问题。边值问题有一种特殊的结构,因为是计算其哈密顿量微分而得的。因此,所得的动力系统是以下形式的哈密顿系统[1]

 

其中

 

是间接法的扩增哈密顿量(augmented Hamiltonian),在间接法中,用适当的边值条件或横截条件(ransversality conditions)可以求解边值问题。其优点是可以求解状态以及adjoint变数( ),所得的解是极值轨迹,很容易验证。缺点是所得的边值问题多半不容易求解(特别是大时间范围或是有内在点限制条件的问题)。像BNDSCO就是用间接法求解的著名软体[10]

在1980年代之后,有另外一种数值求解最佳控制的方式,称为直接法(direct methods)。在直接法中,会用适当的函数来近似状态或是控制(也有可能两者都有),近似用的函数可能是多项式近似或是片段常数的参数化近似。同时也会用费用函数来近似费用泛函。函数近似的系数视为是最佳化的变数,最佳控制问题则变成以下的非线性最佳化问题:

最小化

 

在以下的代数限制式下

 

依使用的直接法不同,非线性最佳化问题的大小可能会很小(例如用直接射击法或拟线性化方法),中等大小(例如用拟谱最佳控制[11]),也有可能会非常大(例如用直接搭配方法英语collocation method[12])。若是用直接搭配方法,非线性最佳化问题的变数及限制会从上千个到上万个不等。由于许多非线性规划(NLP)的大小是由直接法产生的,以直觉来看,直接求解一些非线性最佳化问题会比求解边界值问题要简单。不过,NLP的求解比求解边界值问题要简单。计算比较简单的原因(特别是用直接搭配方法)是产生的NLP比较稀疏,而且已有许多著名的程式可以求解大型稀疏的NLP问题(例如SNOPT英语SNOPT[13])。因此,用直接法可以求解问题的范围(特别是近来很流行的直接搭配方法)比用间接法可以求解的问题范围要大很多。事实上,近来直接法非常的流行,许多人已经撰写程式用这种方式来求解最佳控制。有许多这类程式,例如DIRCOL[14]、SOCS[15]、OTIS[16]、GESOP/ASTOS英语ASTOS[17]、DITAN[18]及PyGMO/PyKEP等[19]。近来因为MATLAB程式语言的盛行,MATLAB上的最佳控制软体也越来越曾遍。学术界开发,直接法求解最优控制的MATLAB软体工具有 RIOTS[20]DIDO英语DIDO (optimal control)[21] DIRECT,[22]、FALCON.m,[23]、GPOPS[24],产业界开发的MATLAB工具有PROPT英语PROPT[25]。这些软体工具提升学术界以及产业界的人士处理复杂最佳控制问题的能力。透过近来泛用MATLAB最佳化的环境(例如TOMLAB英语TOMLAB),要处理最佳控制问题已比早期用C语言或 FORTRAN程式来处理要简单许多。

离散时间的最佳控制

编辑

以上的例子是连续时间英语Discrete time and continuous time的系统以及最佳控制的解。最佳控制的解也可以用数位的方式来实现。当代的控制理论主要在关注离散时间的系统以及解。一致近似(Consistent Approximations)理论[26][27]可以提供在什么情形下,可以用一连串确准度逐渐提升的离散最佳控制问题的解来收敛到原始的连续问题的解。不是所有的离散方式都有这种特性,就算是看似有此特质的都不一定有[28]。例如,用变动步长的程序来积分问题的动态方程,会产生一个不会收敛到0的梯度。直接法RIOTS[29]就是以一致近似理论为基础。

参看

编辑

参考资料

编辑
  1. ^ 1.0 1.1 1.2 1.3 Ross, Isaac. A primer on Pontryagin's principle in optimal control. San Francisco: Collegiate Publishers. 2015. ISBN 978-0-9843571-0-9. OCLC 625106088. 
  2. ^ Luenberger, David G. Optimal Control. Introduction to Dynamic Systems . New York: John Wiley & Sons. 1979: 393–435. ISBN 0-471-02594-1. 
  3. ^ Kamien, Morton I. Dynamic Optimization : the Calculus of Variations and Optimal Control in Economics and Management.. Dover Publications. 2013 [2021-01-12]. ISBN 978-1-306-39299-0. OCLC 869522905. (原始内容存档于2020-06-05). 
  4. ^ Ross, I. M.; Proulx, R. J.; Karpenko, M. An Optimal Control Theory for the Traveling Salesman Problem and Its Variants. 2020-05-06. arXiv:2005.03186  [math.OC]. 
  5. ^ Ross, Isaac M.; Karpenko, Mark; Proulx, Ronald J. A Nonsmooth Calculus for Solving Some Graph-Theoretic Control Problems**This research was sponsored by the U.S. Navy.. IFAC-PapersOnLine. 10th IFAC Symposium on Nonlinear Control Systems NOLCOS 2016. 2016-01-01, 49 (18): 462–467 [2021-01-12]. ISSN 2405-8963. doi:10.1016/j.ifacol.2016.10.208 . (原始内容存档于2021-04-21) (英语). 
  6. ^ Sargent, R. W. H. Optimal Control. Journal of Computational and Applied Mathematics. 2000, 124 (1–2): 361–371. Bibcode:2000JCoAM.124..361S. doi:10.1016/S0377-0427(00)00418-0 . 
  7. ^ Bryson, A. E. Optimal Control—1950 to 1985. IEEE Control Systems. 1996, 16 (3): 26–33. doi:10.1109/37.506395. 
  8. ^ Ross, I. M. A Primer on Pontryagin's Principle in Optimal Control. Collegiate Publishers. 2009. ISBN 978-0-9843571-0-9. 
  9. ^ Kalman, Rudolf. A new approach to linear filtering and prediction problems. Transactions of the ASME, Journal of Basic Engineering, 82:34–45, 1960
  10. ^ Oberle, H. J. and Grimm, W., "BNDSCO-A Program for the Numerical Solution of Optimal Control Problems," Institute for Flight Systems Dynamics, DLR, Oberpfaffenhofen, 1989
  11. ^ Ross, I. M.; Karpenko, M. A Review of Pseudospectral Optimal Control: From Theory to Flight. Annual Reviews in Control. 2012, 36 (2): 182–197. doi:10.1016/j.arcontrol.2012.09.002. 
  12. ^ Betts, J. T. Practical Methods for Optimal Control Using Nonlinear Programming 2nd. Philadelphia, Pennsylvania: SIAM Press. 2010. ISBN 978-0-89871-688-7. 
  13. ^ Gill, P. E., Murray, W. M., and Saunders, M. A., User's Manual for SNOPT Version 7: Software for Large-Scale Nonlinear Programming, University of California, San Diego Report, 24 April 2007
  14. ^ von Stryk, O., User's Guide for DIRCOL (version 2.1): A Direct Collocation Method for the Numerical Solution of Optimal Control Problems, Fachgebiet Simulation und Systemoptimierung (SIM), Technische Universität Darmstadt (2000, Version of November 1999).
  15. ^ Betts, J.T. and Huffman, W. P., Sparse Optimal Control Software, SOCS, Boeing Information and Support Services, Seattle, Washington, July 1997
  16. ^ Hargraves, C. R.; Paris, S. W. Direct Trajectory Optimization Using Nonlinear Programming and Collocation. Journal of Guidance, Control, and Dynamics. 1987, 10 (4): 338–342. Bibcode:1987JGCD...10..338H. doi:10.2514/3.20223. 
  17. ^ Gath, P.F., Well, K.H., "Trajectory Optimization Using a Combination of Direct Multiple Shooting and Collocation", AIAA 2001–4047, AIAA Guidance, Navigation, and Control Conference, Montréal, Québec, Canada, 6–9 August 2001
  18. ^ Vasile M., Bernelli-Zazzera F., Fornasari N., Masarati P., "Design of Interplanetary and Lunar Missions Combining Low-Thrust and Gravity Assists", Final Report of the ESA/ESOC Study Contract No. 14126/00/D/CS, September 2002
  19. ^ Izzo, Dario. "PyGMO and PyKEP: open source tools for massively parallel optimization in astrodynamics (the case of interplanetary trajectory optimization)." Proceed. Fifth International Conf. Astrodynam. Tools and Techniques, ICATT. 2012.
  20. ^ RIOTS 互联网档案馆存档,存档日期16 July 2011., based on Schwartz, Adam. Theory and Implementation of Methods based on Runge–Kutta Integration for Solving Optimal Control Problems (学位论文). University of California at Berkeley. 1996. OCLC 35140322. 
  21. ^ Ross, I. M., Enhancements to the DIDO Optimal Control Toolbox, arXiv 2020. https://arxiv.org/abs/2004.13112页面存档备份,存于互联网档案馆
  22. ^ Williams, P., User's Guide to DIRECT, Version 2.00, Melbourne, Australia, 2008
  23. ^ FALCON.m页面存档备份,存于互联网档案馆), described in Rieck, M., Bittner, M., Grüter, B., Diepolder, J., and Piprek, P., FALCON.m - User Guide, Institute of Flight System Dynamics, Technical University of Munich, October 2019
  24. ^ GPOPS 互联网档案馆存档,存档日期24 July 2011., described in Rao, A. V., Benson, D. A., Huntington, G. T., Francolin, C., Darby, C. L., and Patterson, M. A., User's Manual for GPOPS: A MATLAB Package for Dynamic Optimization Using the Gauss Pseudospectral Method, University of Florida Report, August 2008.
  25. ^ Rutquist, P. and Edvall, M. M, PROPT – MATLAB Optimal Control Software," 1260 S.E. Bishop Blvd Ste E, Pullman, WA 99163, USA: Tomlab Optimization, Inc.
  26. ^ E. Polak, On the use of consistent approximations in the solution of semi-infinite optimization and optimal control problems Math. Prog. 62 pp. 385–415 (1993).
  27. ^ Ross, I M. A Roadmap for Optimal Control: The Right Way to Commute. Annals of the New York Academy of Sciences. 2005-12-01, 1065 (1): 210–231. Bibcode:2005NYASA1065..210R. ISSN 0077-8923. PMID 16510411. S2CID 7625851. doi:10.1196/annals.1370.015. 
  28. ^ Fahroo, Fariba; Ross, I. Michael. Convergence of the Costates Does Not Imply Convergence of the Control. Journal of Guidance, Control, and Dynamics. September 2008, 31 (5): 1492–1497. Bibcode:2008JGCD...31.1492F. ISSN 0731-5090. doi:10.2514/1.37331. 
  29. ^ RIOTS. [2021-01-13]. (原始内容存档于2021-01-16). 

延伸阅读

编辑
  • Bertsekas, D. P. Dynamic Programming and Optimal Control. Belmont: Athena. 1995. ISBN 1-886529-11-6. 
  • Bryson, A. E.; Ho, Y.-C. Applied Optimal Control: Optimization, Estimation and Control Revised. New York: John Wiley and Sons. 1975. ISBN 0-470-11481-9. 
  • Fleming, W. H.; Rishel, R. W. Deterministic and Stochastic Optimal Control. New York: Springer. 1975. ISBN 0-387-90155-8. 
  • Kamien, M. I.; Schwartz, N. L. Dynamic Optimization: The Calculus of Variations and Optimal Control in Economics and Management Second. New York: Elsevier. 1991 [2021-01-12]. ISBN 0-444-01609-0. (原始内容存档于2021-01-24). 
  • Kirk, D. E. Optimal Control Theory: An Introduction. Englewood Cliffs: Prentice-Hall. 1970 [2021-01-12]. ISBN 0-13-638098-0. (原始内容存档于2021-01-13). 
  • Ross, I. M. (2015). A Primer on Pontryagin's Principle in Optimal Control页面存档备份,存于互联网档案馆). Collegiate Publishers. ISBN 978-0-9843571-0-9.
  • Stengel, R. F. Optimal Control and Estimation. New York: Dover (Courier). 1994. ISBN 0-486-68200-5.