9.2 最优控制(LQR, MPC)
在现代机器人控制系统中,对性能的要求日趋严格,不仅需要系统稳定,还常常期望在某种明确的数学意义上达到“最优”。这种最优性可能体现在能耗最低、时间最短、跟踪误差最小,或是这些指标的综合权衡上。最优控制理论为这类问题提供了系统的数学框架和求解工具。本节重点阐述两种在机器人领域具有代表性的最优控制方法:线性二次型调节器(一种离线求解的全局最优控制策略)和模型预测控制(一种在线滚动优化的约束处理控制策略)。二者分别代表了最优控制在频域与时域、离线与在线、无约束与有约束等方面的核心思想。
9.2.1 线性二次型调节器
LQR是最优控制理论中最为经典和广泛应用的成果之一。它针对线性时不变系统,旨在寻找一个状态反馈控制律,使得一个综合了状态误差和控制能量的二次型性能指标达到最小。
9.2.1.1 问题描述与数学基础
考虑一个线性时不变系统:
x ˙ ( t ) = A x ( t ) + B u ( t ) , x ( 0 ) = x 0 \dot{x}(t) = A x(t) + B u(t), \quad x(0) = x_0x˙(t)=Ax(t)+Bu(t),x(0)=x0
其中,x ( t ) ∈ R n x(t) \in \mathbb{R}^nx(t)∈Rn为状态向量,u ( t ) ∈ R m u(t) \in \mathbb{R}^mu(t)∈Rm为控制输入向量。LQR的目标是设计控制律u ( t ) = − K x ( t ) u(t) = -K x(t)u(t)=−Kx(t),以最小化如下无穷时间域的二次型性能指标:
J = ∫ 0 ∞ [ x ( t ) T Q x ( t ) + u ( t ) T R u ( t ) ] d t J = \int_{0}^{\infty} [x(t)^T Q x(t) + u(t)^T R u(t)] dtJ=∫0∞[x(t)TQx(t)+u(t)TRu(t)]dt
其中,Q ∈ R n × n Q \in \mathbb{R}^{n \times n}Q∈Rn×n为半正定状态权重矩阵,R ∈ R m × m R \in \mathbb{R}^{m \times m}R∈Rm×m为正定控制权重矩阵。矩阵Q QQ和R RR的设计是控制工程师表达性能权衡的关键:增大Q QQ的元素意味着对状态偏差的惩罚加重,要求系统更快地回归平衡点;增大R RR的元素意味着对控制能量的惩罚加重,要求使用更温和的控制动作。
9.2.1.2 求解与Riccati方程
上述无限时间LQR问题的最优解可通过求解代数Riccati方程获得:
A T P + P A − P B R − 1 B T P + Q = 0 A^T P + P A - P B R^{-1} B^T P + Q = 0ATP+PA−PBR−1BTP+Q=0
其中P PP是一个对称正定矩阵。求解此方程得到矩阵P PP后,最优状态反馈增益矩阵K KK为:
K = R − 1 B T P K = R^{-1} B^T PK=R