最优控制

最优控制理论是數學最优化中的分支,要找到动力系统在特定一段時間的控制,可以使特定的损失函数最佳化[1]。最佳控制在科學、工程及作業研究上都有很多應用,例如其控制的系統可能是航天器,控制為其動力來源的火箭推進器,目標是在消耗最小燃料的情形下登陸月球[2],其系統也可能是國家的经济,目標是使失業降到最低,控制是财政政策货币政策[3]。系統也可以是作業研究的運籌學,以最佳控制的框架來進行研究[4][5]

最优控制理论是变分法的推广,着重于研究使控制系统的指标达到最优化的条件和方法[6]。这门学科的开创性工作主要是由1950年代前苏联庞特里亚金和美国的贝尔曼所完成,這些是以愛德華J.麥克沙恩英语Edward J. McShane所發展的变分法為其基礎[7]。最优控制可以視為是控制理論中的一種控制策略[1]

通用方法编辑

最佳控制是要找到一系統的控制律,以滿足特定的最佳化準則英语optimality criterion。控制問題會包括費用泛函(cost functional),是狀態以及控制變數的函数。 最佳控制要將費用泛函最小化,會表示成一組描述控制變數路徑的微分方程。最佳控制可以用庞特里亚金最大化原理推導(這是必要条件)[8],或是求解哈密顿-雅可比-贝尔曼方程(充份條件)。

以一個簡單的例子來說明。考慮一部車開在山區的直線道路上。問題是,駕駛需如何駕駛才能最快到目的地?此例中的「控制律」是指控制油門、換檔或是剎車的方式。「系統」包括車輛以及道路,「最佳化準則」是指使駕駛時間最短。控制問題中一般也會有輔助的限制條件,例如車輛的油量有其限制、油門可提供的加速度及車速也都有限制。適當的費用函數會是數學表示式,將駕駛時間表示為速度、道路條件以及系統初始條件的函數。

另一個相關的最佳化問題是在車輛在一定時間抵達目標的前提下,讓油耗降到最低。

更通用的最佳控制問題架構如下[1]:最小化以下的連續時間費用泛函

 

需符合以下的一階動態限制(狀態方程)

 

幾何的「路徑限制」

 

以及終點條件

 

其中 是狀態, 是控制, 是自變數(一般來說,是時間), 是初始時間, 是結束時間。  稱為「結束點成本」及「運行成本」。在變分法中,  會稱為Mayer項以及拉格朗日乘数。其中的路徑限制多半是不等式的限制,在最佳解時,該限制不等式多半不會在恰好為零的情形。以上的最佳控制問題也可能有多個解(其解不唯一),此時的解會稱為是「局部最小化」。

LQ控制器编辑

在通用的最佳控制問題中,有一種特殊的問題是線性二次(linear quadratic, LQ)最佳控制問題,其解稱為LQR控制器。LQ問題可以表示為,將以下二次形式的連續時間費用泛函最小化

 

需符合以下的線性一階動態限制

 

以及初始條件

 

在LQ問題中,有一種特殊型式的問題稱為LQR控制器,是指其中所有的矩陣(    )都是常數,其初始時間為0,其結束時間設定為 (最後一個假設稱為是無限時間長度)。LQR控制器如下,要針對無限時間的二次連續時間成本泛函進行最小化

 

其限制條件是要滿足以下的線性非時變一階動態方程式

 

以及初始條件

 

若是有限時間的例子,矩陣會有額外的限制,  需分別是半正定矩阵及正定矩阵。無限時間的情形下,矩陣無此限制,但需要常數矩陣。有關有限時間下,矩陣的額外限制   and  可以確保成本泛函仍為正。而且,為了要確保成本泛函有界,會有一個額外條件,會要求系統 可控制性。LQ或是LQR的成本泛函都可以視為是最小化「控制能量」(以二次式表示)的手段。

無限時間的問題(LQR問題)限制太多,而且假設系統運作在零狀態,因此也會使系統輸出維持在零狀態,在本質上用處不大。不過若要求解使系統運作在非零輸出準位下的問題,可以先求解零輸出準位的問題,再以此為基礎求解。實際上,可以證明非零輸出準位的問題可以用以下的直接方式求解。在經典最佳控制理論中可以證明LQ(或LQR)最佳控制可以表示為以下的回授型式

 

其中 是適當維度的矩陣,定義如下

 

 是微分Riccati方程的解,微分Riccati方程如下:

 

在有限時間的LQ問題中,Riccati方程會用終端邊界條件,以逆轉時間的方式積分

 

在無限時間的LQR問題中,微分Riccati方程會變成以下的代數Riccati方程(algebraic Riccati equation,ARE):

 

由於代數Riccati方程是由無限時間的LQR問題產生的,矩陣    都是常數。代數Riccati方程一般會有很多個解,要用正定(或半正定)的解去計算回授增益。LQ(LQR)問題後來是由鲁道夫·卡尔曼所解[9]

最佳控制的數值方法编辑

最优控制問題多半是非線性的,一般而言沒有解析解(例如LQ最佳控制問題)。因此,需要用數值方法來求解最佳控制問題。在最佳控制的初期(約1950年代到1980年代),常用來求解最佳控制問題的方式是「間接法」(indirect methods)。間接法會用變分法來求得一階的最佳化條件。條件會形成二點(或是複雜的問題,可能會是三點)的边值问题。边值问题有一種特殊的結構,因為是計算其哈密頓量微分而得的。因此,所得的动力系统是以下形式的哈密頓系統[1]

 

其中

 

是間接法的擴增哈密頓量(augmented Hamiltonian),在間接法中,用適當的邊值條件或橫截條件(ransversality conditions)可以求解边值问题。其優點是可以求解狀態以及adjoint變數( ),所得的解是極值軌跡,很容易驗證。缺點是所得的边值问题多半不容易求解(特別是大時間範圍或是有內在點限制條件的問題)。像BNDSCO就是用間接法求解的著名軟體[10]

在1980年代之後,有另外一種數值求解最佳控制的方式,稱為直接法(direct methods)。在直接法中,會用適當的函數來近似狀態或是控制(也有可能兩者都有),近似用的函收可能是多項式近似或是片段常數的參數化近似。同時也會用費用函數來近似費用泛函。函數近似的係數視為是最佳化的變數,最佳控制問題則變成以下的非線性最佳化問題:

最小化

 

在以下的代數限制式下

 

依使用的直接法不同,非線性最佳化問題的大小可能會很小(例如用直接射擊法或擬線性化方法),中等大小(例如用擬譜最佳控制[11]),也有可能會非常大(例如用直接搭配方法英语collocation method[12])。若是用直接搭配方法,非線性最佳化問題的變數及限制會從上千個到上萬個不等。由於許多非線性規劃(NLP)的大小是由直接法產生的,-->以直覺來看,直接求解一些非線性最佳化問題會比求解邊界值問題要簡單。不過,NLP的求解比求解邊界值問題要簡單。計算比較簡單的原因(特別是用直接搭配方法)是產生的NLP比較稀疏,而且已有許多著名的程式可以求解大型稀疏的NLP問題(例如SNOPT英语SNOPT[13])。因此,用直接法可以求解問題的範圍(特別是近來很流行的直接搭配方法)比用間接法可以求解的問題範圍要大很多。事實上,近來直接法非常的流行,許多人已經撰寫程式用這種方式來求解最佳控制。有許多這類程式,例如DIRCOL[14]、SOCS[15]、OTIS[16]、GESOP/ASTOS英语ASTOS[17]、DITAN[18]及PyGMO/PyKEP等[19]。近來因為MATLAB程式語言的盛行,MATLAB上的最佳控制軟體也越來越曾遍。學術界開發,直接法求解最优控制的MATLAB軟體工具有 RIOTS[20]DIDO英语DIDO (optimal control)[21] DIRECT,[22]、FALCON.m,[23]、GPOPS[24],產業界開發的MATLAB工具有PROPT英语PROPT[25]。這些軟體工具提昇學術界以及產業界的人士處理複雜最佳控制問題的能力。透過近來泛用MATLAB最佳化的環境(例如TOMLAB英语TOMLAB),要處理最佳控制問題已比早期用C語言或 FORTRAN程式來處理要簡單許多。

離散時間的最佳控制编辑

以上的例子是連續時間英语Discrete time and continuous time的系統以及最佳控制的解。最佳控制的解也可以用數位的方式來實現。當代的控制理論主要在關注離散時間的系統以及解。一致近似(Consistent Approximations)理論[26][27]可以提供在什麼情形下,可以用一連串確準度逐漸提昇的離散最佳控制問題的解來收斂到原始的連續問題的解。不是所有的離散方式都有這種特性,就算是看似有此特質的都不一定有[28]。例如,用變動步長的程序來積分問題的動態方程,會產生一個不會收斂到0的梯度。直接法RIOTS[29]就是以一致近似理論為基礎。

参看编辑

參考資料编辑

  1. ^ 1.0 1.1 1.2 1.3 Ross, Isaac. A primer on Pontryagin's principle in optimal control. San Francisco: Collegiate Publishers. 2015. ISBN 978-0-9843571-0-9. OCLC 625106088. 
  2. ^ Luenberger, David G. Optimal Control. Introduction to Dynamic Systems. New York: John Wiley & Sons. 1979: 393–435. ISBN 0-471-02594-1.  已忽略未知参数|url-access= (帮助)
  3. ^ Kamien, Morton I. Dynamic Optimization : the Calculus of Variations and Optimal Control in Economics and Management.. Dover Publications. 2013. ISBN 978-1-306-39299-0. OCLC 869522905. 
  4. ^ Ross, I. M.; Proulx, R. J.; Karpenko, M. An Optimal Control Theory for the Traveling Salesman Problem and Its Variants. 2020-05-06. arXiv:2005.03186  [math.OC]. 
  5. ^ Ross, Isaac M.; Karpenko, Mark; Proulx, Ronald J. A Nonsmooth Calculus for Solving Some Graph-Theoretic Control Problems**This research was sponsored by the U.S. Navy.. IFAC-PapersOnLine. 10th IFAC Symposium on Nonlinear Control Systems NOLCOS 2016. 2016-01-01, 49 (18): 462–467. ISSN 2405-8963. doi:10.1016/j.ifacol.2016.10.208  (英语). 
  6. ^ Sargent, R. W. H. Optimal Control. Journal of Computational and Applied Mathematics. 2000, 124 (1–2): 361–371. Bibcode:2000JCoAM.124..361S. doi:10.1016/S0377-0427(00)00418-0 . 
  7. ^ Bryson, A. E. Optimal Control—1950 to 1985. IEEE Control Systems. 1996, 16 (3): 26–33. doi:10.1109/37.506395. 
  8. ^ Ross, I. M. A Primer on Pontryagin's Principle in Optimal Control. Collegiate Publishers. 2009. ISBN 978-0-9843571-0-9. 
  9. ^ Kalman, Rudolf. A new approach to linear filtering and prediction problems. Transactions of the ASME, Journal of Basic Engineering, 82:34–45, 1960
  10. ^ Oberle, H. J. and Grimm, W., "BNDSCO-A Program for the Numerical Solution of Optimal Control Problems," Institute for Flight Systems Dynamics, DLR, Oberpfaffenhofen, 1989
  11. ^ Ross, I. M.; Karpenko, M. A Review of Pseudospectral Optimal Control: From Theory to Flight. Annual Reviews in Control. 2012, 36 (2): 182–197. doi:10.1016/j.arcontrol.2012.09.002. 
  12. ^ Betts, J. T. Practical Methods for Optimal Control Using Nonlinear Programming 2nd. Philadelphia, Pennsylvania: SIAM Press. 2010. ISBN 978-0-89871-688-7. 
  13. ^ Gill, P. E., Murray, W. M., and Saunders, M. A., User's Manual for SNOPT Version 7: Software for Large-Scale Nonlinear Programming, University of California, San Diego Report, 24 April 2007
  14. ^ von Stryk, O., User's Guide for DIRCOL (version 2.1): A Direct Collocation Method for the Numerical Solution of Optimal Control Problems, Fachgebiet Simulation und Systemoptimierung (SIM), Technische Universität Darmstadt (2000, Version of November 1999).
  15. ^ Betts, J.T. and Huffman, W. P., Sparse Optimal Control Software, SOCS, Boeing Information and Support Services, Seattle, Washington, July 1997
  16. ^ Hargraves, C. R.; Paris, S. W. Direct Trajectory Optimization Using Nonlinear Programming and Collocation. Journal of Guidance, Control, and Dynamics. 1987, 10 (4): 338–342. Bibcode:1987JGCD...10..338H. doi:10.2514/3.20223. 
  17. ^ Gath, P.F., Well, K.H., "Trajectory Optimization Using a Combination of Direct Multiple Shooting and Collocation", AIAA 2001–4047, AIAA Guidance, Navigation, and Control Conference, Montréal, Québec, Canada, 6–9 August 2001
  18. ^ Vasile M., Bernelli-Zazzera F., Fornasari N., Masarati P., "Design of Interplanetary and Lunar Missions Combining Low-Thrust and Gravity Assists", Final Report of the ESA/ESOC Study Contract No. 14126/00/D/CS, September 2002
  19. ^ Izzo, Dario. "PyGMO and PyKEP: open source tools for massively parallel optimization in astrodynamics (the case of interplanetary trajectory optimization)." Proceed. Fifth International Conf. Astrodynam. Tools and Techniques, ICATT. 2012.
  20. ^ RIOTS 互联网档案馆存檔,存档日期16 July 2011., based on Schwartz, Adam. Theory and Implementation of Methods based on Runge–Kutta Integration for Solving Optimal Control Problems (Ph.D.). University of California at Berkeley. 1996. OCLC 35140322. 
  21. ^ Ross, I. M., Enhancements to the DIDO Optimal Control Toolbox, arXiv 2020. https://arxiv.org/abs/2004.13112
  22. ^ Williams, P., User's Guide to DIRECT, Version 2.00, Melbourne, Australia, 2008
  23. ^ FALCON.m, described in Rieck, M., Bittner, M., Grüter, B., Diepolder, J., and Piprek, P., FALCON.m - User Guide, Institute of Flight System Dynamics, Technical University of Munich, October 2019
  24. ^ GPOPS 互联网档案馆存檔,存档日期24 July 2011., described in Rao, A. V., Benson, D. A., Huntington, G. T., Francolin, C., Darby, C. L., and Patterson, M. A., User's Manual for GPOPS: A MATLAB Package for Dynamic Optimization Using the Gauss Pseudospectral Method, University of Florida Report, August 2008.
  25. ^ Rutquist, P. and Edvall, M. M, PROPT – MATLAB Optimal Control Software," 1260 S.E. Bishop Blvd Ste E, Pullman, WA 99163, USA: Tomlab Optimization, Inc.
  26. ^ E. Polak, On the use of consistent approximations in the solution of semi-infinite optimization and optimal control problems Math. Prog. 62 pp. 385–415 (1993).
  27. ^ Ross, I M. A Roadmap for Optimal Control: The Right Way to Commute. Annals of the New York Academy of Sciences. 2005-12-01, 1065 (1): 210–231. Bibcode:2005NYASA1065..210R. ISSN 0077-8923. PMID 16510411. S2CID 7625851. doi:10.1196/annals.1370.015. 
  28. ^ Fahroo, Fariba; Ross, I. Michael. Convergence of the Costates Does Not Imply Convergence of the Control. Journal of Guidance, Control, and Dynamics. September 2008, 31 (5): 1492–1497. Bibcode:2008JGCD...31.1492F. ISSN 0731-5090. doi:10.2514/1.37331. 
  29. ^ RIOTS

延伸閱讀编辑

  • Bertsekas, D. P. Dynamic Programming and Optimal Control. Belmont: Athena. 1995. ISBN 1-886529-11-6. 
  • Bryson, A. E.; Ho, Y.-C. Applied Optimal Control: Optimization, Estimation and Control Revised. New York: John Wiley and Sons. 1975. ISBN 0-470-11481-9. 
  • Fleming, W. H.; Rishel, R. W. Deterministic and Stochastic Optimal Control. New York: Springer. 1975. ISBN 0-387-90155-8. 
  • Kamien, M. I.; Schwartz, N. L. Dynamic Optimization: The Calculus of Variations and Optimal Control in Economics and Management Second. New York: Elsevier. 1991. ISBN 0-444-01609-0. 
  • Kirk, D. E. Optimal Control Theory: An Introduction. Englewood Cliffs: Prentice-Hall. 1970. ISBN 0-13-638098-0. 
  • Ross, I. M. (2015). A Primer on Pontryagin's Principle in Optimal Control. Collegiate Publishers. ISBN 978-0-9843571-0-9.
  • Stengel, R. F. Optimal Control and Estimation. New York: Dover (Courier). 1994. ISBN 0-486-68200-5.