Programma di Ottimizzazione Nei Sistemi Di Controllo 1:
Introduzione alla Programmazione Dinamica (DP); Interpretazione del Problema del Cammino Minimo e Knapsack con DP; Concetto di stato nell'ottimizzazione dinamica; Equazione funzionale di Bellman nella Programmazione Dinamica; Controllo ottimo per sistemi a tempo discreto; Equazioni ricorsiva di Riccati per problemi Lineare-Quadratici; Cenni su Model Predictive Control, implicito ed esplicito; Introduzione al Reinforcement Learning (RL); Value Iteration e Policy Iteration per il calcolo della policy ottima; Tecniche di SARSA e Q-learning; Richiami sulla teoria dei Sistemi Lineari; Concetto di stabilità di un equilibrio e funzioni di Lyapunov; Proprietà di Controllabilità e Osservabilità; Principio di Ottimalità ed equazione di Hamilton-Jacobi-Bellman per problemi di ottimizzazione dinamica nonlineari a tempo continuo; Regolatore Lineare-Quadratico (LQR) ed equazione differenziale di Riccati; Calcolo della soluzione dell'equazione di Riccati tramite matrice Hamiltoniana; Regolatore ad orizzonte infinito ed equazione algebrica di Riccati (ARE); Iterazioni di Kleinman per la soluzione di ARE; Problema del tracking e della reiezione dei disturbi.