calculul variat¸iilor ¸si controlul sistemelor diferent¸ialelefter/lefter-files/cvco.pdf · de o...

108
Calculul variat ¸iilor ¸ si controlul sistemelor diferent ¸iale at˘ alin-George Lefter Editura Alexandru Myller Ia¸ si, 2006

Upload: others

Post on 01-Sep-2019

23 views

Category:

Documents


1 download

TRANSCRIPT

Calculul variatiilor sicontrolul sistemelor diferentiale

Catalin-George Lefter

Editura Alexandru MyllerIasi, 2006

EDITURA ALEXANDRU MYLLERIasi, B-DUL CAROL I, nr.11,

tel. 0232-201061 / fax. 0232-201060http://www.math.uaic.ro/∼sm/

Descrierea CIP a Bibliotecii Nationale a RomanieiLEFTER, CATALIN-GEORGE

Calculul variatiilor si controlul ecuatiilor diferentiale /Catalin-George Lefter. - Iasi : Editura Alexandru Myller, 2006Bibliogr.Index.ISBN (10) 973-86987-4-X ; ISBN (13) 978-973-86987-4-X

517.9

Referent stiintificProf. Univ. Dr. Gheorghe AniculaeseiFacultatea de MatematicaUniversitatea ”Alexandru Ioan Cuza” Iasi

c©Toate drepturile asupra acestei editii apartin autorului si Editurii Alexandru Myller

Lucrarea de fata este o introducere ın teoria clasica a calculului variatiilorsi ın ramura mai noua a matematicii, continuare naturala a acesteia, teoriacontrolului ecuatiilor diferentiale. In cursul lucrarii s-a urmarit definireaproblematicii, descrierea metodelor matematice specifice si a formalismuluihamiltonian ce sta la baza celor doua domenii, precum si exemplificareaacestora ın cazuri concrete.

Lucrarea se adreseaza ın special studentilor facultatilor de matematicasau fizica, dar poate fi utila oricui doreste o introducere ın acest domeniu.Fara a avea pretentia unei monografii de a face o prezentare completa si ınmaxima generalitate, lucrarea ısi propune sa ofere o imagine clara a ideilorsi rezultatelor fundamentale.

Cuprins

Introducere 1

Partea 1. Calculul variatiilor 9

Capitolul 1. Problema de calculul variatiilor 111.1. Formularea problemei. Exemple 111.2. Ecuatiile Euler-Lagrange 161.3. Conditii necesare. Conditii suficiente de extrem local slab 181.4. Teorema lui Noether 26

Capitolul 2. Formalismul canonic 292.1. Sisteme hamiltoniene 292.2. Variatia totala a unei functionale 332.3. Ecuatia Hamilton-Jacobi. Metoda lui Jacobi de integrare a

sistemelor hamiltoniene 35

Partea 2. Controlul sistemelor diferentiale 39

Capitolul 3. Controlul sistemelor liniare 413.1. Controlabilitatea sistemelor liniare 413.2. Control optimal. Principiul de maxim al lui Pontriaghin 463.3. Ecuatia programarii dinamice 483.4. Problema regulatorului liniar-patratic 503.5. Stabilizarea sistemelor diferentiale liniare 533.6. Problema de timp optimal pentru sisteme liniare 56

Capitolul 4. Reprezentarea ecuatiilor diferentialepe varietati diferentiabile 59

4.1. Ecuatii diferentiale pe varietati diferentiabile 594.2. Reprezentarea exponentiala a fluxurilor 61

Capitolul 5. Controlabilitatea sistemelor diferentiale 735.1. Teorema orbitei si consecinte 735.2. Sisteme analitice. Integrabilitate. Teorema lui Frobenius 76

Capitolul 6. Principiul de maxim al lui Pontriaghin 796.1. Multimi accesibile si probleme de control optimal 796.2. Forma geometrica a principiului de maxim al lui Pontriaghin 81

v

6.3. Probleme de control optimal cu timp final liber 836.4. Principiul de maxim pentru problemele de control optimal 856.5. Legatura dintre principiul de maxim si principiul programarii

dinamice 886.6. Probleme de control optimal - exemple 90

Index 99

Bibliografie 101

Introducere

Scopul acestei carti este de a prezenta, ıntr-un volum restrans, proble-matica si ideile fundamentale din doua ramuri ale matematicii: Calcululvariatiilor si Teoria controlului. Teoria controlului, dezvoltata ıncepand cuanii ′50, reprezinta o continuare moderna a Calculului variatiilor, fata decare ısi diversifica mult problematica, ınsa cu care pastreaza ın comun unaspect deosebit de important care este structura hamiltoniana subiacenta.

Acest capitol introductiv face o trecere ın revista a principalelor notiunisi rezultate considerate ın lucrare. Pentru ınceput, mentionam urmatoareaconventie de notatie: daca M este o varietate diferentiabila si q : IR → M

este neteda, atunci q =d

dtq(t) ∈ Tq(t)M , unde Tq(t)M este spatiul tangent

la M ın q(t). In cazul ın care varietatea diferentiabila M = IRn, derivata

unei functii netede y : IR→ IRn va fi notata cu y′ =d

dty(t) ∈ IRn.

Calculul variatiilor. Fie M o varietate diferentiabila n−dimensionala,M0,M1 ⊂ M subvarietati ale lui M , TM este fibratul tangent al lui M ,L : IR × TM → IR o functie pe care o numim lagrangean. Problema decalculul variatiilor este de a gasi o curba q∗, continua si de clasa C1 peportiuni, care rezolva problema de minim

(0.1) infq∈C

J(q), J(q) =∫ t1

t0

L(t, q(t), q(t))dt,

C = q : [t0, t1]→M ; qi := q(ti) ∈Mi, q ∈ C([t0, t1]), C1 pe portiuni.Motivatia studiului acestei probleme provine atat din mecanica cat si dingeometrie (v.§1.1, unde sunt prezentate cateva exemple, sau monografiile[3],[11],[27]).

Studiul conditiilor de ordinul ıntai ın cazul problemei simple de calcululvariatiilor, cand M = IRn si q0, q1 sunt fixate, este facut ın §1.2. In acest cazspatiul variatiilor admisibile este H = h : [t0, t1] → IRn; h(t0) = h(t1) =0, h ∈ C1; daca q∗ este minim pentru J ın C, atunci prima variatie a lui Jın q∗ este nula:

(0.2) δJ(q∗)h :=d

dsJ(q∗ + sh)|s=0 = 0.

O curba q∗ ce satisface (0.2) se numeste extremala. Aceasta este numai oconditie necesara pentru ca aceasta curba sa realizeze infimul lui J . In

1

conditii de regularitate pentru q∗ aceasta se reduce la

(0.3) Lq(t, q∗(t), (q∗)(t)) −d

dtLq(t, q∗(t), (q∗)(t)) = 0,

care sunt ecuatiile Euler-Lagrange ; acestea formeaza un sistem de n ecuatiidiferentiale de ordinul al doilea (v.§1.2, §1.3). Extremala q∗ mosteneste re-gularitatea lui L daca matricea (Lqq) este pozitiv definita. De altfel, conditianecesara a lui Legendre ne spune ca daca q∗ realizeaza infimul lui J , atunci(Lqq) ≥ 0 de-a lungul lui q∗.

In §1.3 consideram conditii de ordinul al II-lea. Presupunem ca matricea(Lqq)(t, q, q) > 0. Vom studia a doua variatie a lui J :

δ2J(q)h :=d2

ds2J(q + sh)|s=0 =

∫ t1

t0

2Ω(t, h, h)dt,

unde Ω(t, h, h) =12

(Lqq(t, q∗, q∗)h2 + 2Lqq(t, q∗, q∗)hh+ Lqq(t, q∗, q∗)h2

).

Conditia necesara de ordinul al doilea pentru ca q∗ sa realizeze infimuleste ca a doua variatie sa fie pozitiva: δ2J(q∗)· ≥ 0. Vom ajunge astfella notiunea de punct conjugat. Acesta este un punct t ∈ (t0, t1] pentru carea doua ecuatie a lui Euler (ecuatia Euler-Lagrange asociata lagrangeanuluiΩ(t, h, h)) are o solutie nenula cu h(t0) = h(t) = 0. Conditia necesara a luiJacobi ne spune ca daca q∗ realizeaza infimul, atunci nu exista ın intervalul(t0, t1) puncte conjugate cu t0 ın raport cu extremala q∗. Conditia suficientade minim local slab este urmatoarea: daca intervalul ınchis [t0, t1] nu continepuncte conjugate cu t0, atunci extremala q∗ este un minim local ın raportcu topologia C1. Tot ın §1.3 vom extinde toate notiunile introduse la cazuln-dimensional.

In §1.4 prezentam teorema lui Noether, care ne da un mod de constructiea integralelor prime pentru ecuatiile Euler-Lagrange atunci cand lagrangea-nul este invariant la un grup de difeomorfisme. Aceasta teorema este de-osebit de utila ıntrucat majoritatea legilor de conservare pentru sistemelemecanice se obtin drept consecinte ale acestui rezultat (v.[3]).

Capitolul 2 studiaza formalismul canonic hamiltonian. Ecuatiile Euler-Lagrange se transforma dintr-un sistem de ordinul al doilea pe fibratul tan-gent TM ıntr-un sistem de ordinul ıntai pe fibratul cotangent T ∗M , care areo structura naturala de varietate simplectica. Acesta este sistemul hamil-tonian. Aceasta transformare permite studiul si integrarea unor sistemedin mecanica care nu admit alte abordari. De asemenea, punctul de vederehamiltonian este util ın studiul asimptotic care se face ın teoria perturbatiilorsi permite o ıntelegere mai profunda a proprietatilor calitative ale sistemelormecanice complicate care apar, de exemplu, ın mecanica cereasca, mecanicastatistica, mecanica cuantica etc. (v.[3],[17]).

Astfel, ın §2.1 consideram un lagrangean cu proprietatea ca (Lqq(t, q, q))este matrice nedegenerata pentru orice (t, q, q). Notam cu

(0.4) p = Lq(t, q, q).

2

Conditia de nedegenerare ne asigura ca formula (0.4) defineste un difeo-morfism local (t, q, q) → (t, q, p) de la TM la T ∗M . p se numeste variabilaadjuncta, iar ansamblul variabilelor (q, p) formeaza variabilele canonice. Seintroduce de asemenea hamiltonianul sistemului

(0.5) H(t, q, p) = (p, q)− L(t, q, q).

Aceste transformari ne conduc la urmatorul sistem diferential de 2n ecuatiide ordinul I:

(0.6)

⎧⎪⎪⎪⎨⎪⎪⎪⎩q =

∂H

∂p(t, q, p)

p = −∂H∂q

(t, q, p)

Acestea sunt ecuatiile lui Hamilton sau sistemul hamiltonian. Solutiile aces-tui sistem sunt extremalele corespunzatoare lagrangeanului

L(t, (q, p), (q, p)) = (p, q)−H(t, q, p)

pe T ∗M . Proiectiile peM ale acestora sunt extremale pentru J . Consideramde asemenea forma Lax a sistemelor hamiltoniene:

(0.7)d

dtF (q, p) = H,F,

unde H,F =∂H

∂p· ∂F∂q− ∂H

∂q· ∂F∂p

reprezinta paranteza Poisson a hamil-

tonienilor F = F (q, p), H = H(t, q, p). Considerarea celor doua puncte devedere pentru solutiile sistemelor hamiltoniene, si anume ca acestea sunt, pede o parte, extremale pentru lagrangeanul L, iar pe de alta parte ca hamil-tonienii F (q, p) evolueaza de-a lungul curbelor integrale conform ecuatiei(0.7), ne conduce la introducerea notiunii de transformare canonica (i.e.care pastreaza structura simplectica si deci forma sistemului hamiltonian)si a notiunii de functie generatoare pentru o transformare canonica.

In §2.2 calculam variatia totala a unei functionale de tipul (0.1), candcapetele (ti, qi) sunt lasate sa se miste liber pe subvarietati diferentiabiledin spatiul (t, q). Obtinem pentru o extremala q∗, pe langa ecuatiile Euler-Lagrange, conditiile de transversalitate

(pδq −Hδt)|t=t1t=t0 = 0.

In §2.3 se prezinta metoda lui Jacobi de integrare a sistemelor hamiltoniene.Astfel, functia valoare S(t, q) care se defineste ıntr-o vecinatate a punctului(t0, q0) prin

S(t, q) =∫ t

t0

L(s, q∗(s), q∗(s))ds,

3

unde q∗ este unica extremala ce uneste (t0, q0) cu (t, q), verifica ecuatia cuderivate partiale de ordinul ıntai numita ecuatia Hamilton-Jacobi:

(0.8)∂S

∂t(t, q) +H(t, q,

∂S

∂q)(t, q) = 0.

De fapt, ecuatiile lui Hamilton reprezinta ecuatiile caracteristicilor pentru(0.8). Existenta unei solutii generale, depinzand de n parametri, pentru(0.8), conduce la integrarea sistemului hamilonian corespunzator. De alt-fel, ın acest caz, solutia S este o functie generatoare pentru o transformarecanonica, iar ın noile coordonate, obtinute prin aceasta transformare, sis-temul hamiltonian are o forma simplu de integrat. Aceasta este ın esentametoda lui Jacobi.

Controlul sistemelor diferentiale. Fie problema Cauchy pentru sistemuldiferential

(0.9)y′ = f(t, y, u)y(0) = y0.

y ∈ Ω ⊂ IRn reprezinta starea sistemului, u ∈ U = U ⊂ IRm reprezintacontrolul care apartine spatiului controalelor U . Ipotezele pe care le vomconsidera pentru f si pentru strategiile (controalele) admisibile u = u(t) ∈ Une vor asigura existenta globala si unicitatea solutiei problemei Cauchy,solutie notata cu yu(t). Multimea U de functii cu valori ın U , pe care ovom preciza ın situatiile concrete studiate, se numeste multimea controaleloradmisibile. Aceasta va fi, dupa caz, L∞(0, T ;U), L2(0, T ;U) sau multimeafuntiilor masurabile cu valori ın U , constante pe portiuni.

Problemele pe care le vom aborda sunt controlabilitatea, stabilizarea sicontrolul optimal (v. [37] pentru o introducere ın teoria controlului).

Controlabilitatea. Vom spune ca sistemul (0.9) este exact controlabil ıntimp T daca, pentru orice y0, y1 ∈ Ω, exista o stategie u = u(t) astfel ıncatsolutia corespunzatoare a problemei Cauchy cu data initiala y0 sa satisfacayu(T ) = y1. Sistemul este nul controlabil daca pentru orice y0 ∈ Ω existau ∈ U astfel ıncat yu(T ) = 0.

Vom spune ca sistemul (0.9) este aproximativ controlabil ın timp Tdaca pentru orice y0, y1 ∈ Ω exista un sir de controale admisibile un ∈ Uastfel ıncat yun(T )→ y1.

Stabilizarea sistemelor diferentiale. Fie y o stare stationara a sistemu-lui (0.9). Se pune problema determinarii unui control ın forma feedbacku = Ky, astfel ıncat solutia sistemului cu bucla ınchisa obtinut y′(t) =f(t, y(t),Ky(t)) sa verifice lim

t→∞ |y(t)− y| = 0.

Controlul optimal. In teoria controlului optimal se ataseaza unui sistemde forma (0.9) o functionala de cost J(y, u) care are ın general forma

(0.10) J(y, u) =∫ t1

t0

L(t, y(t), y′(t))dt + l(y(T )).

4

Un control u ∈ U se numeste admisibil daca J(yu, u) < +∞. Se cautacontrolul admisibil u∗(t), numit control optimal, astfel ıncat

(0.11) J(y∗, u∗) = infu∈U

J(yu, u).

Perechea (y∗, u∗) se numeste pereche optimala (am notat y∗ = yu∗).

In capitolul 3 studiem problemele enuntate mai sus pentru sistemeleliniare, ın care

f(t, y, u) = A(t)y +B(t)u, t ∈ (0, T ),unde t → A(t) ∈ Mn(IR), t → B(t) ∈ Mn×m(IR) sunt functii continue, iarU = IRm.

In §3.1 se studiaza controlabilitatea acestor sisteme. Aceasta este echiva-lenta, ın cazul sistemelor finit dimensionale pe care le studiem aici, cu con-trolabilitatea aproximativa si cu inegalitatea de observabilitate

|p(0)|2 ≤ C∫ T

0|B∗p(t)|2dt

unde p este o solutie arbitrara a ecuatiei adjuncte p′ + A∗p = 0. Aceastaeste de asemenea echivalenta cu proprietatea de unica continuare B∗p(t) ≡0, t ∈ [0, T ] ⇒ p(t) ≡ 0, t ∈ [0, T ]. In cazul ın care matricile A,B suntconstante, proprietatea de unica continuare enuntata este echivalenta cufaptul ca rangul matricei lui Kalman [A|B] := [B,AB, . . . , An−1B] este n.

In §3.2 consideram problema de control optimal si discutam conditiilede optimalitate sau principiul de maxim al lui Pontriaghin (v.[32]). Ast-fel, pentru o functionala de cost de tipul (0.10) se introduce hamiltonianuldepinzand de u:

Hu(t, y, p) = (p, f(t, y, u))− L(t, y, u).

De mentionat ca prima ecuatie, ın y, a sistemului hamiltonian cu hamilto-nianul Hu este exact (0.9). Pincipiul de maxim al lui Pontriaghin spune ınesenta ca daca u∗ este control optimal, atunci exista o solutie (y∗, p∗) a sis-temului hamiltonian cu hamiltonianul Hu∗

si conditiile ın capete y(0) = y0,p(T ) = −∇l(y(T )), iar

(0.12) Hu∗(t, y∗, p∗) = max

u∈UHu(t, y∗, p∗).

Demonstratia data aici functioneaza ın cazul problemei Bolza pentru sis-temele liniare cu functionala de cost patratica. Notam cu Hmax(t, y, p) =maxu∈U

Hu(t, y, p) hamiltonianul maximizat. Daca acesta este regulat, atunci

demonstram ca (y∗, p∗) satisfac si sistemul hamiltonian cu hamiltonianulHmax, iar controlul optimal u∗ se exprima cu ajutorul starii adjuncte p∗folosind proprietatea de maxim (0.12).

In §3.3 problema de control optimal este ınglobata ıntr-o familie de pro-bleme de control optimal pentru care variem data initiala (t0, y0). Functiavaloare obtinuta verifica o ecuatie cu derivate partiale de ordinul ıntai.

5

Aceasta ecuatie este ecuatia programarii dinamice, sau ecuatia lui Bell-man (sau Hamilton-Jacobi-Bellman) si este de fapt ecuatia Hamilton-Jacobiasociata hamiltonianului Hmax (v.[10]). Rezolvarea unei probleme Cauchypentru aceasta ecuatie permite obtinerea controlului optimal ın forma feed-back. In acest punct avem o imagine de ansamblu asupra trunchiului comunreprezentat de formalismul hamiltonian ce exista atat ın problemele de cal-culul variatiilor, cat si ın problemele de control optimal.

Cele doua metode fundamentale ale controlului optimal, principiul demaxim si principiul programarii dinamice, le aplicam ın §3.4 sistemelorliniare cu functionala de cost patratica de forma

J(y, u) =12

∫ T

0(Q(t)y, y) + (R(t)u, u)dt +

12(P0y(T ), y(T )).

Ecuatia lui Bellman, pentru care cautam o solutie de forma12(P (t)y, y),

conduce ın aceasta situatie la o ecuatie diferentiala Riccati

P ′ + PA+A∗P − PBR−1B∗P +Q = 0, P (T ) = P0,

care ın conditii de pozitivitate pentru Q,R,P0, are solutie unica iar controluloptimal se exprima ın forma feedback cu ajutorul lui P :

u∗(t) = −R−1B∗P (t)y.

Paragraful §3.5 studiaza stabilizarea cu control feedback liniar a sis-temelor liniare. Rezultatul central este ca controlabilitatea sistemului esteechivalenta cu proprietatea de completa stabilizare a sistemului (i.e. pentruorice ω < 0 se poate alege feedbackul astfel ıncat sistemul liniar cu buclaınchisa obtinut are toate valorile proprii cu partea reala mai mica decatω, deci sistemul se poate stabiliza cu orice descrestere exponentiala). Deasemenea, problema stabilizarii este legata de o problema de control opti-mal cu functionala de cost patratica cu orizont infinit. Aceasta conduce laecuatia Riccati algebrica:

SA+A∗S − SBR−1B∗S +Q = 0.

Solutia minimala S a acestei ecuatii, cand exista, ne furnizeaza un controlfeedback, u∗(t) = −R−1B∗Sy(t), ce stabilizeaza sistemul liniar.

In 3.6 analizam problema de timp optimal pentru sistemele liniare. Re-zultatul fundamental demonstrat aici, ın anumite ipoteze, este o teoremanumita de bang-bang. Aceasta spune ca, daca multimea controalelor U esteun poliedru, atunci timpul optimal se obtine cu un control ce este constantpe portiuni, are un numar finit de puncte de comutare si ia valori ın varfurilepoliedrului U .

Urmatoarele trei capitole trateaza aspecte geometrice ale problemelorde control. Astfel, ın capitolul 4 sunt prezentate elemente de calculul ope-ratorial introdus de A.Agrachev si R.V.Gamkrelidze ın [1],[26], care per-mite tratarea ecuatiilor diferentiale pe varietati diferentiabile, din punct devedere formal, ca pe ecuatiile liniare. Acest calcul, numit si reprezentare

6

exponentiala sau calcul cronologic, permite ınlocuirea obiectelor neliniare(punctele varietatii, vectorii tangenti si campurile vectoriale, difeomorfis-mele, fluxurile) cu obiecte liniare care sunt functionale liniare, operatorisau morfisme de algebre pe algebra functiilor infinit diferentiabile pe vari-etatea considerata. Mentionam formula variatiei constantelor care capataconsistenta si ın cazul neliniar folosind aceasta reprezentare. Aceste tehnicine permit ın capitolul 6,§6.2,§6.3 sa prezentam demonstratia principiului demaxim ın forma geometrica data ın [2]. Acesta se aplica unei probleme demultimi accesibile la care se reduce o problema de control optimal; aceastareducere este descrisa ın §6.1. Tot ın capitolul 6, §6.4 dam principiul demaxim pentru diferitele tipuri de probleme de control optimal (Lagrange,Bolza, Mayer) si pentru problemele cu timp liber. Analizam ın §6.5 legaturadintre principiul de maxim al lui Pontriaghin si principiul programarii di-namice, iar ın §6.6 tratam un numar de exemple concrete de probleme decontrol optimal.

Controlabilitatea sistemelor neliniare este tratata ın capitolul 5, underezultatul principal este teorema orbitei sau teorema lui Nagano-Sussmann.

In ıncheierea acestui capitol trebuie de mentionat ca lucrarea de fata nusi-a propus o prezentare completa a domeniului, multe directii importantede cercetare nefiind abordate. De aceea, ıncheiem cu o lista bibliograficacare, departe de a fi exhaustiva, reflecta mai degraba preferintele autoruluisi reprezinta din punctul de vedere al acestuia texte care pot fi de referintaın ramurile corespunzatoare ale matematicii:

• Teoria ecuatiilor diferentiale - v. [4],[16],[33],[35].• Geometrie - v. [22],[23],[24]• Calculul variatiilor - v. [11],[27].• Mecanica teoretica, Fizica matematica - v. [3],[17],[31].• Teoria clasica a controlului, principiul de maxim, principiul pro-

gramarii dinamicii - v. [10],[28],[32],[37].• Teoria geometrica a controlului - v. [2],[29],[30].• Teoria controlului stochastic - v. [25]• Optimizare si control optimal pentru ecuatii diferentiale finit si

infinit dimensionale - v. [5],[6],[7],[8],[14].• Control optimal ın ipoteze de regularitate minimala - v. [12],

[13],[15].• Solutii de vascozitate pentru ecuatii Hamilton-Jacobi - v. [18],[19],

[20],[21].

7

Partea 1

Calculul variatiilor

CAPITOLUL 1

Problema de calculul variatiilor

1.1. Formularea problemei. Exemple

Problema simpla de calculul variatiilor consta ın a determina curbelede clasa C1 pe portiuni, q : [t0, t1] → IR, ce satisfac conditiile la capeteq(t0) = q0, q(t1) = q1 si care minimizeaza o functionala de tipul

(1.1) J(q) =∫ t1

t0

L(t, q(t), q(t))dt.

Am notat cu q = q′ =d

dtq. L se numeste lagrangeanul problemei. Conditiile

asupra lagrangeanului L vor fi precizate ulterior.

Ne propunem sa determinam conditii necesare de extrem si conditii sufi-ciente pentru ca o curba q = q(t) sa fie extrem local ıntr-o anumita topologie.Metodele folosite pentru a obtine aceste conditii au la baza metodele dinanaliza functiilor reale de varibila reala, ınsa se identifica cu acestea numaiıntr-o prima etapa, ulterior capatand aspecte specifice.

Amintim ın continuare cateva rezultate elementare privind caracteri-zarea punctelor de extrem pentru o functie de variabila reala. Fie f : [a, b]→IR.

Conditii necesare de extrem. Daca f este diferentiabila de clasa C2 si x∗ ∈[a, b] este punct de minim pentru f , atunci:

Daca x∗ ∈ (a, b) atunci f ′(x∗) = 0, f ′′(x∗) ≥ 0.Daca x∗ = a (respectiv x∗ = b) atunci f ′(x∗) ≥ 0 (respectiv f ′(x∗) ≤ 0).

Conditii suficiente de extrem (local). Daca f este diferentiabila, de clasa C2,atunci

Daca x∗ ∈ (a, b) si f ′(x∗) = 0, f ′′(x∗) > 0 atunci x∗ este un punct deminim local strict.

Daca x∗ = a (respectiv x∗ = b) si f ′(x∗) > 0 (respectiv f ′(x∗) < 0)atunci x∗ este un punct de minim local strict.

Conditii suficiente de extrem global. Daca f este inferior semicontinua simarginita inferior, atunci exista x∗ ∈ [a, b] punct de minim pentru f .

Conditii suficiente de unicitate a punctului de minim. Daca f este strictconvexa, atunci f are cel mult un punct de minim ın intervalul [a, b].

11

Fie acum un spatiu normat X, J : X → IR. Fie, de asemenea, K ⊂ X.Consideram problema de minimizare

infx∈K

J(x) .

Daca u ∈ K, atunci spunem ca u este interior ın directia v daca u+ εv ∈ Kpentru |ε| < ε0. u se numeste radial ın directia v daca u + εv ∈ K pentru0 ≤ ε < ε0. Prima variatie a lui J se defineste prin

δJ(u)v =d

dεJ(u+ εv)|ε=0.

A doua variatie este data de formula:

δ2J(u)v =d2

dε2J(u+ εv)|ε=0.

Prima si a doua variatie exista ın anumite ipoteze de regularitate pentrufunctionala J . De exemplu, acestea sunt bine definite pentru J ∈ C1(X),respectiv J ∈ C2(X), ınsa acestora li se poate da un sens pentru functionalecu regularitate mai mica, ınlocuind derivata directionala clasica cu diferitenotiuni de gradienti generalizati (subdiferentiala pentru functii convexe,gradienti generalizati ın sens Clarke pentru functii local lipschitziene etc.- v. [34],[12]).

Teorema 1.1.1. i) Daca J are punct de minim pe K, ıntr-un punct x∗interior ın directia v si exista prima si a doua variatie a lui J ın x∗, atunciδJ(x∗)v = 0 si δ2J(x∗)v ≥ 0. Daca punctul de minim x∗ este numai radialın directia v atunci δJ(x∗)v ≥ 0.ii)Daca multimea K este convexa, J este convexa pe K si δJ(u)v ≥ 0 pentruorice v astfel ıncat x∗ este radial ın directia v, atunci x∗ este punct de minimglobal.iii) Daca multimea K este convexa si J este strict convexa pe K, atunci Jare cel mult un punct de minim.iv)Daca X este spatiu reflexiv, multimea K este convexa si ınchisa iar J esteconvexa, inferior semicontinua si coerciva ( lim

‖u‖→∞,u∈KJ(u) = +∞), atunci

J ısi atinge infimul pe K.

Inainte de a aplica rezultatele mentionate pentru functionalele de tipul(1.1), prezentam cateva exemple care sa motiveze studiul acestor probleme.

Exemplul 1.1.1. Suprafata minima de rotatie. Se pune problemadeterminarii unei curbe q : [t0, t1]→ IR+, q(t0) = q0, q(t1) = q1 pentru carearia suprafetei de rotatie este minima. Se stie ca aria suprafetei de rotatieeste data de formula

J(q) = 2π∫ t1

t0

q(t)√

1 + q(t)2dt.

12

Asadar, ın acest caz, lagrangeanul este L(t, q, q) = 2πq√

1 + q2 iar multimeade definitie a functionalei este multimea curbelor continue si de clasa C1 peportiuni cu capetele fixate ın q0, q1.

Exemplul 1.1.2. Problema brahistocronei. Un punct material de masam se misca fara frecare de-a lungul unei curbe aflate ın plan vertical, ceuneste punctele (x0, y0), (x1, y1). Se pune problema gasirii unei astfel decurbe pentru care timpul de parcurgere al acesteia sa fie minim. Aceastacurba se numeste brahistocrona.

Fara a restrange generalitatea alegem reperul cartezian xOy astfel ıncatx0 = 0, y0 = 0 si miscarea are loc ın sensul pozitival axei Oy. Notam cus lungimea arcului de curba parcurs si cu v modulul vitezei. Conservareaenergiei ne spune ca

12mv2 = mgy.

Pe de alta parte,

v =ds

dt=√

1 + y′2 x,

unde y′ =d

dxy. Obtinem

dt =

√1 + y′2√2gy

dx,

deci functionala pe care trebuie sa o minimizam este

J(y) =∫ x1

x0

√1 + y′2(x)√

2gy(x)dx.

Lagrangeanul pentru problema brahistocronei este L(x, y, y′) =

√1 + y′2√2gy

iar multimea de definitie este multimea curbelor definite pe [x0, x1], continuesi de clasa C1 pe portiuni, cu capetele fixate ın y0, y1.

Exemplul 1.1.3. Mecanica lagrangeana este ramura mecanicii ce stu-diaza miscarea unui sistem mecanic cu ajutorul spatiului configuratiilor.Spatiul configuratiilor are o structura de varietate diferentiabila pe care onotam cu M . Coordonatele locale pe M sunt coordonate generalizate alesistemului mecanic. Un sistem mecanic lagrangean este definit de o functiediferentiabila L : IR× TM → IR numita lagrangean, unde TM este fibratultangent al lui M . Traiectoriile sistemului mecanic, q : [t0, t1] → M , suntextremale (v. §1.2) pentru functionala

J(q) =∫ t1

t0

L(t, q(t), q(t))dt.

Un caz particular al sistemelor lagrangeene sunt sistemele mecanice cu legaturiolonome pentru care lagrangeanul L are forma

(1.2) L(t, q, q) = T (q)− U(t, q)

13

unde q se numesc viteze generalizate, T este energia cinetica a sistemului siU reprezinta energia potentiala (v. [3]).

De exemplu, fie un sistem de n puncte materiale de mase m1, . . . ,mn,ıntr-un camp de forte de potential U = U(q) unde q = (r1, . . . , rn) iarri = (xi, yi, zi) sunt vectorii de pozitie ai punctelor materiale. q reprezintacoordonatele generalizate ale sistemului. Energia cinetica este

T (q) =n∑

i=1

12mi| ˙ri|2

iar lagrangeanul este dat de (1.2)Fortele care actioneaza asupra sistemului sunt

Fi = − ∂

∂riU(q).

Legea lui Newton spune ca ecuatiile de miscare ale sistemului sunt

mi ¨ri = Fi = − ∂

∂riU(q).

Vom vedea ca acestea coincid cu conditiile ca traiectoriile sistemului mecanicsa fie extremale pentru J (principiul minimei actiuni al lui Hamilton, v. [3])si care se exprima prin ecuatiile Euler-Lagrange (v. §1.2).

Exemplul 1.1.4. Miscarea unui punct material ıntr-un camp de fortecentral. Fie r vectorul de pozitie al punctului material de masa m, r = |r|,U = U(r) potentialul fortei centrale. Ecuatia lui Newton este

m¨r = − ∂

∂rU(r) = F (r)r.

Inmultind ecuatia vectorial cu cu r, obtinem cad

dt(r× ˙r) = 0, deci miscarea

este plana. In planul miscarii introducem coordonatele plare (r, θ) ın care| ˙r|2 = r2 + r2θ2. Asadar, lagrangeanul sistemului este

L((r, θ), (r, θ)) =m

2(r2 + r2θ2)− U(r).

Exemplul 1.1.5. Problema atractiei de catre doua mase fixe egale.Consideram un punct material P , de masa 1, ce se misca ın plan ın campulgravitational al doua puncte materiale fixe O1, O2, aflate la distata 2l unulde celalalt. Fie di = dist (P,Oi), i = 1, 2. Alegem ξ1 = r1 + r2, ξ2 =r1− r2 drept coordonate generalizate ale punctului si exprimam lagrageanulın aceste coordonate. Aceste coordonate se mai numesc coordonate eliptice.Lagrangeanul este, dupa cum am vazut ın exemplul 1.1.3, L = T − U undeT este energia cinetica iar U este energia potentiala. Energia cinetica este

T =| ˙r|22

14

unde r este vectorul de pozitie ıntr-un reper cartezian. Energia potentialaeste

U = − kr1− k

r2= − 4kξ1

ξ21 − ξ22,

cu k o constanta pozitiva. Fie un sistem de axe ın centrul O al segmentului[O1O2], ce are dreapta O1O2 axa absciselor. Fie (r, θ) coordonate polare ınacest sistem. Energia cinetica a punctului material are ın aceste coordonateexpresia

T =12(r2 + r2θ2).

Legatura ıntre coordonatele polare si coordonatele eliptice se obtine adunandegalitatile r21 = r2 + l2 + 2rl cos θ, r22 = r2 + l2 − 2rl cos θ:

ξ21 + ξ22 = 4(r2 + l2)ξ1ξ2 = 4rl cos θ.

Un calcul elementar, dar nu imediat, ne conduce la urmatoarea expresie alagrangeanului

L(ξ1, ξ2, ξ1, ξ2) =ξ218ξ21 − ξ22ξ1 − 4l2

+ξ228ξ21 − ξ224l2 − ξ2

+4kξ1ξ21 − ξ22

.

Exemplul 1.1.6. Geodezicele unei varietati riemanniene. Se numestevarietate riemanniana o varietate diferentiabila M pe care este definita,pentru fiecare spatiu tangent TqM, q ∈ M , o forma patratica (·, ·)q pozitivdefinita, depinzand neted de q. Notam cu g(v) = (v, v)q pentru v ∈ TqM sinumim g metrica riemanniana pe M . In coordonate locale (q1, . . . , qn) pe

M , daca v =n∑

i=1

vi ∂

∂qi, metrica g are forma g(v) =

n∑i,j=1

gijvivj . Lungimea

unei curbe netede γ : [t0, t1]→M este data de formula

J(γ) =∫ t1

t0

g(γ(t))dt.

Se pune problema determinarii curbei de lungime minima care uneste punc-tele q0, q1 ∈M . Lagrangeanul problemei, ın coordonate locale, este

L(q, q) =

⎛⎝ n∑i,j=1

gij qiqj

⎞⎠ 12

.

Curbele care sunt extremale pentru J (v. §1.2) se numesc geodezice.

15

1.2. Ecuatiile Euler-Lagrange

Consideram ın cele ce urmeaza o functionala de tipul (1.1). Presupunemca L este de clasa C2 ın ansamblul variabilelor. Multimea de definitie afunctionalei J este

C =q : [t0, t1]→ IR|q ∈ C[t0, t1], C1 pe portiuni , q(t0) = q0, q(t1) = q1

.

Fie multimea variatiilor admisibile

H = h : [t0, t1]→ IR|h ∈ C[t0, t1], C1 pe portiuni , h(t0) = h(t1) = 0.

Intrucat orice x ∈ C este interior ın orice directie h ∈ Y, putem calculaδJ(x)h:

d

dεJ(q + εh) =

d

∫ t1

t0

L(t, q + εh, q + εh)dt =

=∫ t1

t0

Lq(t, q + εh, q + εh)h+ Lq(t, q + εh, q + εh)hdt.

Am notat cu Lq =∂L

∂q, Lq =

∂L

∂q. Deci, facand ε = 0, obtinem urmatoarea

expresie pentru prima variatie:

(1.3) δJ(q)h =∫ t1

t0

Lq(t, q, q)h+ Lq(t, q, q)hdt.

Daca q∗ realizeaza minimul, atunci δJ(q∗)h = 0,∀h ∈ H.O curba q∗ pentru care δJ(q∗) = 0 se numeste extremala. In cazul ın

care q∗ este de clasa C2 atunci, integrand prin parti, obtinem:

0 = δJ(q∗)h =∫ t1

t0

[Lq(t, q∗, q∗)−d

dtLq(t, q∗, q∗)]hdt

pentru orice h ∈ H. Rezulta ca

(1.4)d

dtLq(t, q∗, q∗)− Lq(t, q∗, q∗) = 0.

Aceasta este ecuatia Euler-Lagrange care este o ecuatie diferentiala, deordinul al doilea. De altfel, aceasta este ıntotdeauna satisfacuta ın sensdistributional.

Asadar, daca q∗ realizeaza infimul lui J si este de clasa C2, atunci q∗verifica (1.4). Nu orice extremala realizeaza infimul. Vom reveni asupraacestei chestiuni ın §1.3.

Daca q∗ nu este decat de clasa C1 pe portiuni atunci, notand cu p(t) =∫ t

t0

Lq(s, q∗(s), q∗(s))ds si integrand prin parti ın (1.3), obtinem:

(1.5) 0 = δJ(q∗)h = −∫ t1

t0

[p(t) + Lq(t, q∗(t), q∗(t))]hdt

16

pentru orice h ∈ C. Deci, derivata ın sens distributional a functiei p +Lq(t, q∗, q∗) fiind nula, are loc

(1.6) p(t)− Lq(t, q∗(t), q∗(t)) = cst pe [t0, t1].

Rezulta ca Lq(t, q∗, q∗) este functie continua deci, ıntr-un punct t de salt alderivatei q∗, are loc:

(1.7) Lq(t, q∗(t), q∗(t− 0)) = Lq(t, q∗(t), q∗(t+ 0))

Aceasta este prima dintre conditiile de compatibilitate ale lui Weierstrass-Erdmann asupra carora vom reveni ın §2.2.

Regularitatea solutiilor pentru ecuatia Euler-Lagrange.

Teorema 1.2.1. Fie q∗ extremala si presupunem ca Lqq(t, q∗, ·) > 0.Atunci, daca L ∈ Cr pentru un r ≥ 2, rezulta ca q∗ ∈ Cr.

Demonstratie Ipoteza Lqq(t, q∗, ·) > 0 ımpreuna cu conditia Weierstrass-Erdmann (1.7) ne spune ca ın orice punct t ∈ (t0, t1) are loc q∗(t − 0) =q∗(t + 0), deci q∗ este de clasa C1 si p ∈ C1(t0, t1). De asemenea, conditiaLqq(t, q∗, ·) > 0 ne permite sa aplicam teorema functiilor implicite ın (1.6)privita ca ecuatie ın ultima variabila q∗. Cum p(t) este de clasa C1, rezultaca q∗ este de clasa C1 deci q∗ ∈ C2. Pentru r > 2 rezultatul se obtine prininductie.

Observatia 1.2.1. Un lagrangean pentru care Lqq(t, q, ·) > 0 se numestelagrangean regulat . Ecuatia Euler − Lagrange este ın acest caz o ecuatiediferentiala de ordinul II, nedegenerata. Aceasta ınseamna, rezolvand oproblema Cauchy, ca din punctul initial (t0, q0) pleaca pentru fiecare valorarea lui q(0) = q0 cate o extremala unica.

Observatia 1.2.2. Pentru un lagrangean regulat ce nu depinde explicitde t, L = L(q, q), are loc pentru orice extremala q∗:

L(q∗, q∗)− q∗Lq(q∗, q∗) = cst,

adica avem o integrala prima pentru ecuatia Euler-Lagrange.Intr-adevar, utilizand (1.4), avem ca

d

dt(L(q∗, q∗)− q∗Lq(q∗, q∗)) = q∗(Lq(q∗, q∗)−

d

dtLq(q∗, q∗)) = 0.

Problema brahistocronei. Revenim la exemplul 1.1.2. Am vazut ca la-grangeanul ın problema brahistocronei este (facem abstractie de constanta

1/√

2g): L(y, y′) =

√1 + y′2√y

. Se verifica usor ca acesta este lagrangean re-

gulat deci extremalele sunt netede ın domeniul y > 0. Problema este decide a gasi extremalele functionalei

J(y) =∫ x1

x0

√1 + y′2√y

dx.

17

Fara a restrange generalitatea putem presupune ca x0 = 0. LagrangeanulL nu depinde explicit de x, deci avem o integrala prima: −L+ y′Ly′ = cst,de unde un simplu calcul ne da y(1 + y′2) = cst. Tinand cont de directia demiscare a punctului obtinem ecuatia:

y′ =

√C − yy

,

cu o constanta C > 0. Aceasta este o ecuatie cu variabile separabile care,tinand cont de faptul ca y(0) = 0, are solutia

x =∫ y

0

√z

C − z dz.

Cu schimbarea de variabila z = C sinθ

2si notand cu r = C/2, obtinem

solutia ın forma parametrica

(1.8)x = r(θ − sin θ)y = r(1− cos θ) .

Aceasta este ecuatia parametrica a unei cicloide, adica a curbei descrise deun punct de pe un cerc de raza r ce se rostogoleste, fara sa alunece, pe odreapta orizontala. θ este unghiul de rotatie al cercului. Solutia proble-mei este unicul arc neted de cicloida, de ecuatii (1.8), ce uneste punctele(0, 0), (x1, y1).

1.3. Conditii necesare. Conditii suficiente de extrem local slab

In cele ce urmeaza vom presupune ca lagrangeanul L este regulat si declasa C3. Fie q∗ o extremala ın problema simpla de calculul variatiilor.Notam cu(1.9)

Ω(t, h, h) =12

(Lqq(t, q∗, q∗)h2 + 2Lqq(t, q∗, q∗)hh + Lqq(t, q∗, q∗)h2

).

Un calcul simplu ne arata ca

δ2J(q∗)h =∫ t1

t0

2Ω(t, h, h)dt =: Q(q∗)h,

iar noul lagrangean Ω este de asemenea regulat.Consecinta imediata a teoremei 1.1.1,i) este:

Propozitia 1.3.1. Daca q∗ realizeaza infimul, atunci Q(q∗)h ≥ 0 pentruorice h ∈ H adica forma patratica Q este pozitiva pe H.

In cele ce urmeaza ne propunem sa dam o interpretare concreta a pozi-tivitatii celei de a doua variatii. Vom vedea ca aceasta este legata de com-portarea familiilor de extremale ce pleaca dintr-un punct dat (t0, q0).

18

Propozitia 1.3.2. Fie q(·, s), s ∈ (0, s1), o familie de extremale ast-

fel ıncat q∗ = q(·, 0), q(t0, s) = q0 ∀s ∈ (0, s1),∂q

∂s(t0, 0) = 0,

∂q

∂s(t, 0) =

0 pentru un t ∈ (t0, t1]. Atunci, notand cu h =∂q

∂s(·, 0), h este extremala

pentru functionala Q(q∗)(·), adica verifica ecuatia (numita si a doua ecuatiea lui Euler)

(1.10) Ωh −d

dtΩh = 0

cu h(t0) = h(t),h ≡ 0.

Demonstratie Intrucat q(·, s) sunt extremale pentru L, care este la-grangean regulat, acestea verifica ecuatia Euler-Lagrange (1.4). Derivamecuatia (1.4) ın raport cu s pentru s = 0 si obtinem (pentru simplitateomitem argumentul (t, q∗(t), q∗(t)) al lui L):

0 = Lqqh+ Lqqh−d

dt(Lqqh+ Lqqh) = Ωh −

d

dtΩh.

h ≡ 0 deoarece h(t0) =∂q

∂s(t0, 0) = 0. Faptul ca h(t0) = h(t1) = 0 rezulta

imediat din ipoteza.

Definitia 1.3.1. Fie q∗ extremala pentru L. Perechea (t, q∗(t)) cu t ∈(t0, t1) se numeste conjugata cu (t0, q0) de-a lungul extremalei (sau ın raportcu extremala) q∗ daca exista h extremala pentru a doua problema a lui Euler(solutie pentru (1.10)) astfel ıncat h(t0) = h(t) = 0, h ≡ 0. Vom mai spunesi ca t este conjugat cu t0 ın raport cu q∗.

Observatia 1.3.1. Multimea punctelor conjugate de pe extremalele cepleaca din (t0, q0), q(·, s), formeaza o curba ınfasuratoare a acestor familii deextremale, data parametric prin s → (t(s), q(t(s), s)) unde t = t(s) verifica

ecuatia∂

∂sq(t, s) = 0 (v. [11]).

Teorema 1.3.1. (Conditia necesara a lui Jacobi) Daca q∗ este un minimpentru J pe intervalul [t0, t1], atunci nu exista puncte (t, q∗(t)), conjugatecu (t0, q0) ın raport cu q∗, cu t ∈ (t0, t1).

Demonstratie Fie h extremala pentru Q(q∗)(·) ın H. Aratam mai ıntaica Q(q∗)h = 0. Cu Ω dat de (1.9) si tinand cont de (1.10) avem

2Ω = hΩh + hΩh = hd

dtΩh + hΩh =

d

dt(hΩh)

deci

Q(q∗)h =∫ t1

t0

2Ω(t, h(t), h(t))ds = hΩh|t1t0 = 0.

Intrucat q∗ este minim pentru J , infh∈H

Q(q∗)h = 0. Presupunem acum

ca t ∈ (t0, t1) este conjugat cu t0. Rezulta ca exista pe [t0, t] extremala

19

h ≡ 0 pentru Q(q∗)(·), cu h(t0) = h(t) = 0. Din consideratiile anterioare∫ t

t0

2Ω(t, h, h)dt = 0 deci, daca extindem pe h cu 0 pe intervalul [t, t1],

obtinem ca Q(q∗)h = 0. Asadar acest h ≡ 0 realizeaza infimul lui Q(q∗)(·).Cum Ω este lagrangean regulat rezulta ca h ∈ C2 si satisface ecuatiile (1.10).Cum h = 0 pe (t, t1) rezulta ca h ≡ 0 pe (t0, t1), contradictie.

Fie acum forma patratica pe H:

(1.11) Q(h) =∫ t1

t0

P (t)h2 +R(t)h2dt

unde P (t), R(t) sunt functii continue, h ∈ H. Notam cu

Ω(t, h, h) = P (t)h2 +R(t)h2.

Propozitia 1.3.3. Daca Q(h) ≥ 0 pentru orice h ∈ H, atunci P (t) ≥0, t ∈ (t0, t1).

Demonstratie Presupunem, prin reducere la absurd, ca exista t ∈ (t0, t1)cu P (t) < 0. Fie

hε(t) =

1ε(ε− |t− t|) pentru |t− t| < ε

0 pentru |t− t| ≥ ε

Se verifica usor ca limε→0

Q(hε) = −∞, ceea ce contrazice pozitivitatea lui Q.

Corolar 1.3.1. (Conditia necesara a lui Legendre) Daca q∗ este minimpentru J , atunci Lqq(t, q∗(t), q∗(t)) ≥ 0.

Demonstratie Se aplica propozitia 1.3.3 functionalei Q(·) = Q(q∗)(·) carepoate fi adusa la forma (1.11) printr-o integrare prin parti.

Extindem acum notiunea de punct conjugat ın raport cu forme patraticegenerale pentru care presupunem ın cele ce urmeaza ca P (t) > 0,∀t.

Definitia 1.3.2. Punctul t ∈ (t0, t1) se numeste conjugat cu t0 dacaexista o extremala h ≡ 0 pentru Q, pe (t0, t), cu h(t0) = h(t) = 0.

Analogul teoremei 1.3.1, cu demonstratie identica, are enuntul:

Teorema 1.3.2. (Conditia necesara a lui Jacobi) Presupunem ca formapatratica Q este pozitiva pe H: Q(h) ≥ 0, h ∈ H. Atunci intervalul (t0, t1)nu contine puncte conjugate cu t0.

Teorema 1.3.3. Forma patratica Q este strict pozitiva pe H (adicaQ(h) > 0, h ∈ H \ 0) daca si numai daca intervalul ınchis [t0, t1] nucontine puncte conjugate cu t0.

20

Demonstratie (⇒) : Am demonstrat ca ın intervalul (t0, t1) nu existapuncte conjugate cu t0. Presupunem ca t1 ar fi punct conjugat cu t0. Aceastaınseamna ca exista h ∈ H, solutie nenula pentru (1.10) deci Q(h) = 0 ceeace contrazice ipoteza Q > 0.

(⇐) : Ideea este de a adauga la integrandul lui Q o diferentiala exactacare sa nu ıi schimbe valoarea iar noul integrand sa fie un patrat perfect.Astfel, cautam w ∈ C1(t0, t1) astfel ıncat

Q(h) =∫ t1

t0

P (t)h2 +R(t)h2 +d

dt(wh2)dt

pentru h ∈ H (observam ca∫ t1

t0

d

dt(wy2)dt = 0) si integrandul Ph2 +Rh2 +

d

dt(wh2) = P (t)h2 + (R(t) + w′)h2 + 2whh sa fie un patrat perfect. Acest

lucru se ıntampla daca:

(1.12) P (R +w′) = w2

si, ın acest caz,

Q(h) =∫ t1

t0

P(h+ P−1wh

)2dt.

Se observa ca, daca aceasta scriere este posibila, atunciQ este strict pozitiva.Intr-adevar, daca Q(h) = 0 atunci h + P−1wh = 0 pe (t0, t1), h(t0) = 0 sideci, ın mod necesar, h ≡ 0.

Ramane deci de gasit o solutie a ecuatiei Riccati (1.12) care nu se an-uleaza pe intervalul ınchis [t0, t1]. Cautam w de forma

w(t) = − u(t)u(t)

P (t)

si ecuatia (1.12) devine

(1.13) − d

dt(Pu) +Ru = 0.

Aceasta este o ecuatie diferentiala liniara de ordinul al doilea ın u si seobserva ca este exact ecuatia Euler-Lagrange atasata functionalei Q. Dinipoteza, intervalul (t0, t1] nu contine puncte conjugate cu t0 si deci extremalah a lui Q ce satisface h(t0) = 0, h(t0) = 1 nu se anuleaza pe intervalul(t0, t1]. Din propritatea de continuitate a solutiei ın raport cu datele initiale,extremala care verifica u(t0− δ) = 0, u(t0− δ) = 1 cu δ > 0 suficient de miceste definita pe intervalul [t0−δ, t1] si nu se anuleaza pe [t0, t1]. Demonstratiaeste ıncheiata.

Conditii suficiente de extrem local slab.

In continuare, ınzestram multimea de definitie a lui J , functiile C1(t0, t1)cu capetele fixate ın q0, q1, cu topologia data de norma

‖q‖C1 = supt∈[t0,t1]

(|q(t)| + |q(t)|).

21

Vom numi extrem local slab un extrem local ın raport cu topologia data denorma ‖ · ‖C1 .

Teorema 1.3.4. Presupunem ca q∗ este extremala pentru functionala(1.1) (deci este solutie a ecuatiei (1.4)) si intervalul ınchis [t0, t1] nu continepuncte conjugate cu t0 ın raport cu extremala q∗. Atunci q∗ este un minimlocal slab.

Demonstratie Fie P (t) = Lqq(t, q∗(t), q∗(t)). Deoarece lagrangeanul esteregulat, P (t) > 0 pe [t0, t1] si putem alege α > 0 astfel ıncat P (t) − α > 0.Din continuitatea solutiilor unei ecuatii diferentiale ın raport cu parametrii

rezulta ca forma patratica Q(h) = Q(q∗)h−α2

∫ t1

t0

(h)2dt > 0 pentru y = 0.

Deci Q(y) ≥ α

∫ t1

t0

(y′)2. Rezulta ca forma patratica Q este pozitiv definita

ın raport cu topologia spatiului Sobolev H1 si q∗ este minim local ın raportcu topologia H1. Deci q∗ este minim local si ın raport cu topologia C1 careeste mai tare.

Suprafata minima de rotatie. Pentru exemplul 1.1.1 lagrangeanul esteL(t, q, q) = q

√1 + q2. Avem integrala prima qLq − L =

q√1 + q2

= cst,

deci ecuatia satisfacuta de extremale este

q =1C

√q2 − C2.

Aceasta este o ecuatie cu variabile separabile ce are solutiile

q(t) = C cosh(1Ct+ s),

cu C, s constante. Acestea sunt catenarele. Fara restrange generalitatea,

presupunem t0 = 0 si gasim C =1

cosh s. Notam cu q = q(t, s) extremalele

respective. Multimea punctelor conjugate se afla pe o curba q = e(t) =q(t, s(t)), obtinuta prin rezolvarea ecuatiei qs(t, s) = 0 (v. observatia 1.3.1).Daca q1 > e(t1), exista doua extremale ce unesc (0, q0), (t1, q1) si numaiuna dintre acestea nu contine puncte conjugate cu (0, q0). Aceasta este unminim local slab si de fapt realizeaza minimul lui J pe multimea curbelorce satisfac q(t) > e(t). Mai exista o curba q = e1(t) > e(t) astfel ıncat,daca q1 ≥ e1(t1), atunci catenara obtinuta realizeaza infimul lui J . Dacaq1 < e1(t1) infimul lui J este aria suprafetei de rotatie degenerata formatadin reuniunea discurilor de raze q0, q1, aflate ın planele verticale t = 0,respectiv t = t1. Pentru q1 = e1(t1) infimul se realizeaza pe catenara si esteegal cu aria suprafetei de rotatie degenerate (v.[11]).

22

Ecuatii Euler-Lagrange in IRn.

Fie q =

⎛⎝ q1

· · ·qn

⎞⎠ ∈ IRn si un lagrangean L(t, q, q) : IR× IRn × IRn → IR.

Problema de calculul variatiilor este aceeasi, de a determina curbele q :[t0, t1]→ IRN , care satisfac anumite conditii la limita (de exemplu q(t0) = q0,q(t1) = q1) si care minimizeaza functionala

J(q) =∫ t1

t0

L(t, q, q)dt.

In cele ce urmeaza determinam prima si a doua variatie a functionaleiJ si reformulam conditiile necesare si cele suficiente studiate ın cazul scalar.Demonstratiile vor fi facute numai daca acestea difera substantial de cazulscalar.

Lagrangeanul L ıl consideram de clasa C3. Multimile de definitie, respec-tiv multimea variatiilor admisibile sunt C, respectiv H, unde am schimbat

pe IR cu IRn. Prima variatie a functionalei J este δJ(q)h =d

dtJ(q+sh)|s=0:

δJ(q)h =∫ t1

t0

∂L

∂q· h+

∂L

∂q· hdt = 0.

Aici ” · ” este produsul scalar din IRn. Vom mai nota cu Lq =∂L

∂q, Lq =

∂L

∂qgradientii ın raport cu q, respectiv q. Integrand prin parti (ın ipoteza caregularitatea integranzilor o permite, de exemplu q ∈ C2), obtinem ca dacaq∗ realizeaza infimul si este de clasa C2, atunci satisface ecuatiile Euler-Lagrange :

(1.14)d

dt

(∂L

∂q(t, q∗(t), q∗(t))

)− ∂L

∂q(t, q∗(t), q∗(t)) = 0.

Observatia 1.3.2. Ecuatiile (1.14) formeaza un sistem diferential deordinul al doilea, de n ecuatii cu n necunoscute. Solutiile acestui sistem senumesc extremale. Daca matricea Lqq = (Lqiqj ) este pozitiv definita pentruorice (t, q, q), lagrangeanul se numeste regulat. Pentru un lagrangean regulatde clasa Ck, toate extremalele sunt de clasa Ck. Demonstratia acestui fapteste identica cu a teoremei 1.2.1 folosind ın plus argumentul conform caruiagradientul unei functii strict convexe de clasa C1 este o functie injectiva.

Variatia a doua a functionalei J este:

δ2J(q)h =d2

ds2J(q + sh)|s=0 =

(1.15) =∫ t1

t0

n∑i,j=1

(Lqiqjhihj + 2Lqiqjhihj + Lqi qj hihj

)dt,

unde derivatele lagrangeanului L sunt evaluate ın (t, q(t), q(t)).

23

Vom presupune ın cele ce urmeaza ca Lqi qj = Lqiqj , i, j = 1, . . . , n. Inaceasta ipoteza de simetrie, forma patratica Q(h) = δ2J(q)h se poate scrie,dupa o integrare prin parti, sub forma:

Q(q)h =∫ t1

t0

(P (t)h, h) + (R(t)h, h)dt,

unde P (t) = Lqq(t, q(t), q(t)), R(t) = Lqq(t, q(t), q(t)) −d

dtLqq(t, q(t), q(t))

sunt functii continue cu valori matrici simetrice iar (·, ·) este produsul scalardin IRn. Ipoteza de simetrie ne usureaza scrierea si calculele, ınsa poate fievitata. Daca nu este satisfacuta, ın expresia lui Q(q)h, dupa integrarea

prin parti, mai apare un termen integral de forma∫ t1

t0

(A(t)h′(t), h(t))dt cu

A(t)ij = (Lqiqj−Lqiqj)(t, q(t), q(t)) , iar A(t) matrice antisimetrica. Esentialeste faptul ca, daca h este extremala pentru Q(q)·, atunci Q(q)h = 0, lucrucare ramane adevarat si daca ipoteza respectiva nu este satisfacuta.

Conditia necesara a lui Legendre se enunta astfel:

Teorema 1.3.5. Daca q∗ realizeaza infimul functionalei J , atunci, ∀h ∈H, Q(q∗)h ≥ 0 si P (t) este pozitiva pentru orice t ∈ (t0, t1), adica ∀q ∈IRN ,(P (t)q, q) ≥ 0.

A doua ecuatie a lui Euler este ecuatia Euler-Lagrange asociata lui Q:

(1.16)d

dt

(P (t)h

)−R(t)h = 0

Vom presupune ın cele ce urmeaza ca P (t) > 0,∀t (Lqq > 0). Astfel, sistemul(1.16) este un sistem diferential de ordinul al doilea, nedegenerat. Fixandvaloarea lui h ın t0, h(t0) = 0, spatiul solutiilor este n−dimensional. Obaza ın spatiul solutiior este formata din solutiile h1, . . . , hn care verificaproblema Cauchy cu valorile initiale hi(t0) = 0, hi(t0) = ei, unde ei suntvectorii bazei canonice ın IRn.

Definitia 1.3.3. Fie q∗ extremala pentru J . (t, q∗(t)) se numeste conju-gat cu (t0, q0) daca vectorii h1(t), . . . , hn(t) sunt liniar dependenti. Altfelspus, exista o solutie nenula a ecuatiei (1.16) care se anuleaza ın t0, t.

Teorema 1.3.6. (Conditia necesara a lui Jacobi) Daca q∗ este minimlocal slab, atunci intervalul deschis (t0, t1) nu contine puncte conjugate cut0.

Conditia suficienta de minim local slab se enunta ca ın cazul scalar:

Teorema 1.3.7. Daca intervalul ınchis [t0, t1] nu contine puncte conju-gate cu t0 atunci q∗ este minim local slab.

Demonstratie Ideea este de a adauga un termen la lagrangeanul lui Q caresa nu schimbe valoarea acestuia (o integrala exacta) si care sa formeze subintegrala un patrat perfect, de unde sa rezulte ca Q este o forma patratica

24

pozitiv definita. Cautam asadar un termen de formad

dt(Wh,h) unde W (t)

este o matrice simetrica. Are loc:

Q(q∗)(h) =∫ t1

t0

(P (t)h, h) + (R(t)h, h) +d

dt(W (t)h, h)dt =

=∫ t1

t0

(P (t)h, h) + (R(t)h, h) + 2(Wh′, h) + (W ′h, h)dt

Pentru a obtine un patrat perfect sub integrala ar trebui ca W sa verificeecuatia Riccati

(1.17) W ′ = −R+WP−1W.

In acest caz

Q(q∗)(h) =∫ t1

t0

(P

12 h+ P− 1

2Wh,P12 h+ P− 1

2Wh)dt.

Q(q∗) se anuleaza numai daca P12 h+P− 1

2Wh ≡ 0 pe [t0, t1]. Cum h(t0) = 0,ar rezulta ca h ≡ 0 deoarece verifica o problema Cauchy pentru un sistemliniar omogen. Deci, ceea ce am obtinut pana acum este ca daca putemrezolva ecuatia Riccati (1.17) pe intervalul [t0, t1], atunci Q > 0. Cautampe W de forma

W = −PU ′U−1,

unde U(t) este o functie matriceala. Astfel, daca W satisface ecuatia Riccati1.17, atunci U verifica ecuatia

− d

dt

(PU ′)+RU = 0.

Cum intervalul (t0, t1] nu contine puncte conjugate cu t0, intervalul [t0−δ, t1]nu contine puncte conjugate cu t0 − δ pentru un δ > 0 suficient de mic (amextins functiile ce intervin P,R la intervalul [t0 − δ, t0] ca functii continue).Solutia acestei ecuatii cu datele initiale U(t0 − δ) = 0n, U ′(t0 − δ) = Inexista pe tot intervalul [t0−δ, t1] si, ıntrucat acest interval nu contine puncteconjugate cu t0−δ solutia are proprietatea ca det(U(t)) = 0, t ∈ [t0, t1]. Decisolutia W a ecuatie Riccati exista pe ıntreg intervalul [t0, t1] si astfel Q > 0.Rationamentul functioneaza acum exact ca ın cazul scalar(v. teorema 1.3.4).

Geodezicele varietatilor riemanniene. Revenim la exemplul 1.1.6. Dacaγ este extremala pentru J (adica geodezica), reparametrizam curba dupalungimea de arc astfel ıncat, ın coordonatele locale alese L(q, q) = 1. Sis-temul ecuatiilor Euler-Lagrange se scrie astfel:

12

n∑i,j=1

∂gij

∂qkqiqj =

d

dt

n∑i=1

gik qi, k = 1, . . . , n.

25

Se noteaza cu

Γkij =

12

n∑l=1

gkl(glj,i + gli,j − gij,l)

care se numesc simbolii lui Christoffel. Am notat cu gij,l =∂gij

∂qlsi (gij) =

(gij)−1. Cu aceste notatii ecuatiile geodezicelor devin

qk =n∑

i,j=1

Γkij q

iqj, k = 1, . . . , n.

Geodezicele sunt de asemenea extremale pentru functionala energie cu la-

grangeanul L = L(q, q)2 =n∑

i,j=1

gij qiqj.

1.4. Teorema lui Noether

Integrarea unui sistem de ecuatii diferentiale este echivalenta cu deter-minarea unui numar corespunzator de integrale prime functional indepen-dente (v. [4],[33],[35]). In cazul ecuatiilor Euler-Lagrange este posibiladeterminarea unei integrale prime daca lagrangeanul este invariant la ungrup de difeomorfisme. Acesta este continutul teoremei lui Noether. Pentrusimplitate vom considera lagrangieni care nu depind explicit de t.

Fie ϕ un difeomorfism al varietatii diferentiabile M . Vom spune ca la-grangeanul L : TM → IR este invariant la transformarea ϕ daca L(v) =L(ϕ∗(v)). Am notat cu ϕ∗ : TM → TM aplicatia liniara tangenta definitaın coordonate locale (q, q) pe TM prin ϕ∗(q, q) = Dϕ(q)q. Facem aiciobservatia ca un difeomorfism care invariaza lagrangeanul transforma ex-tremale ın extremale: daca q(t) este extremala (verifica ecuatiile Euler-Lagrange), atunci ϕ(q(t)) este extremala.

Teorema 1.4.1. Fie ϕs un C1 grup de difeomorfisme ce invariaza pe L.Atunci

(1.18) I(q, q) =(Lq(q, q),

dϕs

ds(q)|s=0

)este integrala prima pentru sistemul Euler-Lagrange.

Demonstratie Fie q(t) o curba integrala pentru ecuatiile Euler-Lagrangesi fie Φ(s, t) = hs(q(t)). Tinand cont ca hs invariaza pe L si ca Φ(s, ·) verificaecuatiile Euler-Lagrange, obtinem

0 =∂

∂sL(Φ, Φ) =

(Lq(Φ, Φ),

∂sΦ)

+(Lq(Φ, Φ),

∂sΦ)

=

=(∂

∂tLq(Φ, Φ),

∂sΦ)

+(Lq(Φ, Φ),

∂sΦ)

=∂

∂t

(Lq(Φ, Φ),

∂sΦ).

26

Facem acum pe s = 0 si, cum ϕ0 = Id, obtinem cad

dtI(q(t), q(t)) = 0 deci

I este integrala prima.

Mecanica lagrangeana. Revenim acum la exemplul 1.1.3. Fie un sistem den puncte materiale de mase mi. Energia cinetica a acestui sistem este

T =n∑

i=1

mix2

i + y2i + z2

i

2.

Presupunem ca sistemul este conservativ, adica exista un potential al fortelorcare actioneaza asupra sistemului: U = U(xi, yi, zi). Lagrangeanul sistemu-lui este L = T − U . Este usor de vazut ca euatiile lui Euler nu sunt altcevadecat ecuatiile lui Newton. In prezenta simetriilor, legi de conservare seobtin din teorema lui Noether. Astfel, daca lagrangeanul este invariant latranslatii ϕs : (xi, yi, zi)→ (xi + s, yi, zi), obtinem integrala prima

n∑i=1

Lxi = cst

adica proiectia pe axa Ox a impulsului total al sistemului se conserva.Daca L este invariant la rotatii

ϕs : (xi, yi, zi)→ (xi cos s+ yi sin s,−xi sin s+ yi cos s, zi),

se obtine din teorema lui Noether can∑

i=1

Lxiyi − Lyixi = cst,

adica componenta pe axa Oz a momentului cinetic total se conserva.

Miscarea plana ıntr-un camp de forte central Abordam aici exemplul 1.1.4.

Lagrangeanul, ın coordonate polare q = (r, θ), este L(r, θ) =mr2

2+mr2θ2

2−

U(r). Ecuatiile Euler-Lagrange suntmr −mrθ2 = −U ′(r)2rrθ + r2θ = 0 .

Intrucat lagrangeanul nu depinde explicit de t, energia L− q ·Lq = cst, deciavem o integrala prima

E =mr2

2+mr2θ2

2+ U(r) = cst.

O a doua integrala prima se obtine fie integrand a doua ecuatie, fie observandca lagrangeanul este invariant la grupul de difeomorfisme ϕs(r, θ) = (r, θ+s)si aplicand teorema lui Noether obtinem ca

M = r2θ = cst.

Aceasta reprezinta a doua lege a lui Kepler. Este de fapt vorba despreconservarea momentului cinetic si acest lucru are urmatoarea interpretare

27

geometrica: viteza areolara (viteza de variatie a ariei descrise de raza vec-toare) este constanta. Introducand aceasta integrala prima ın prima ecuatiedin sistemul Euler-Lagrange obtinem ecuatia

mr =K

r3− U ′(r).

cu K =M2m

2constanta pozitiva. Aceasta ecuatie diferentiala de ordinul

al doilea si autonoma poate fi integrata. Astfel se reduce sistemul la studiul

unei miscari 1-dimensionale cu potential V (r) = U(r)+K

2r2. Avem integrala

prima a energiei pentru aceasta ecuatie care conduce la o ecuatie de ordinulıntai:

r =√

2(E − V (r))/msi care combinata cu expresia lui M ne da urmatoarea ecuatie pentru r cafunctie de θ, r = r(θ):

dr

dθ=r2√

2(E − V (r))/mM

.

Daca miscarea are loc ın camp central gravitational, potentialul U este de

forma U(r) = −kr, k > 0. Solutiile se gasesc de forma

r =p

1 + e cos θ,

care este ecuatia unei conice ın coordonate polare. Daca traiectoria estemarginita (e ∈ (−1, 1)), atunci ea este elipsa cu unul din focare ın O. Aceastaeste prima lege a lui Kepler, cu referire la miscarea planetelor ın jurul soare-lui. Pentru un studiu detaliat al miscarii unui punct material ıntr-un campde forte central, v. [3].

28

CAPITOLUL 2

Formalismul canonic

2.1. Sisteme hamiltoniene

Consideram din nou sistemul de ecuatii Euler-Lagrange

d

dt

(∂L

∂q

)− ∂L

∂q= 0,

care este format din n ecuatii diferentiale de ordinul al doilea. Ne propunemın continuare sa reducem ordinul sistemului tansformandu-l ıntr-un sistemde 2n ecuatii de ordinul I. Vom presupune ca L ∈ C2 si

(2.1) (Lqq(t, q, q)) este nesingulara ∀ t, q, q,ceea ce ınseamna ca sistemul Euler-Lagrange este sistem de ordinul al doileanedegenerat. Aceasta se ıntampla daca lagrangeanul este regulat. Notamcu

(2.2) pi = Lqi(t, q, q).

pi se numesc variabile conjugate iar ansamblul variabilelor (q, p) formeazavariabilele canonice. Teorema functiilor implicite, care poate fi aplicatatinand cont de ipoteza de nedegenerare, ne spune ca ecuatiile (2.2) definescun difeomorfism local de la spatiul (t, q, q) ın spatiul (t, q, p) si, dupa cumvom vedea mai tarziu, de la fibratul tangent ın fibratul cotangent. Hamil-tonianul sistemului se defineste, cu ajutorul acestui difeomorfism local, prin

(2.3) H(t, q, p) = −L(t, q, q) +n∑

i=1

piqi

Ne intereseaza sa scriem ecuatiile Euler-Lagrange ın noile coordonate. Pen-tru aceasta calculam diferentiala lui H, tinand cont de (2.2),(2.3):

dH = −dL+n∑

i=1

qidpi +n∑

i=1

pidqi =

= −∂L∂tdt−

n∑i=1

∂L

∂qidqi −

n∑i=1

∂L

∂qidqi +

n∑i=1

qidpi +n∑

i=1

pidqi =

= −∂L∂tdt−

n∑i=1

∂L

∂qidqi +

n∑i=1

qidpi.

29

Din ecuatiile Euler-Lagrange stim ınsa ca∂L

∂qi=

d

dtpi deci, evaluand ın

coordonatele (t, q, p) diferentiala lui H, obtinem sistemul⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩

∂H

∂t= −∂L

∂t

∂H

∂qi= − ∂L

∂qi

∂H

∂pi= qi

Ultimele doua ecuatii le scriem ın forma

(2.4)

⎧⎪⎨⎪⎩qi =

∂H

∂pi

pi =∂H

∂qi

.

Acesta este sistemul hamiltonian care este un sistem de 2n ecuatii diferentialede ordinul ıntai. Acesta mai poate fi scris si ın forma:

d

dt

(qp

)= J∇H

(qp

),

unde J =(

0n In−In 0n

).

Transformata LegendreFie f : D(f) ⊂ IRn → IR ∪ +∞ convexa, inferior semicontinua.Transformata Legendre a lui f este functia convexa f∗ : D(f∗) ⊂ IRn →

IR ∪ +∞ definita prin

f∗(x∗) = supx∈IRn

[(x∗, x)− f(x)].

Subdiferentiala functiei f ın punctul x0 este multimea

∂f(x0) = x∗ ∈ IRn|(x∗, x− x0) ≤ f(x)− f(x0) .

Facem aici observatia ca daca f este diferentiabila Gateaux atunci ∂f(x0) =∇f(x0).

Are loc urmatorul rezultat:

Teorema 2.1.1. Urmatoarele conditii sunt echivalente:i) x∗ ∈ ∂f(x)ii) x ∈ ∂f∗(x∗)iii) f(x) + f∗(x∗) = (x∗, x).

Pentru demonstratie, precum si pentru studiul detaliat al functiilor con-vexe se pot consulta monografiile [34],[6].

30

Presupunem ın cele ce urmeaza ca lagrangeanul L este ın plus functieconvexa ın raport cu variabila q, ceea ce ımpreuna cu conditia de nedegene-rare (2.1) ne spune ca lagrangeanul L este regulat si strict convex ın raportcu q. Observam ca hamiltonianul H nu este altceva decat transformataLegendre a lagrangeanului L ın raport cu variabila q:

H(t, q, p) = supq∈IRn

(p, q)− L(t, q, q).

Intr-adevar, supremul se atinge ıntr-un punct q cu proprietatea ca diferentia-

la functiei din paranteza ın raport cu q este 0, adica are loc p =∂L

∂q(t, q, q).

Facem aici observatia ca, ın general, transformata Legendre a unei functiiconvexe, inferior semicontinue pe un spatiu normat, este definita pe dualulacelui spatiu normat. Cum lagrangeanul L este definit pe fibratul tangentTM al unei varietati diferentiabile M , hamiltonianul H este definit ın modnatural pe fibratul cotangent T ∗M . Calculele pe care le-am facut si formuleleobtinute pana acum sunt valabile si ın cazul unei varietati diferentiabile M ,ın coordonatele locale pe aceasta varietate.

Dam ın continuare o alta formulare a ecuatiilor lui Hamilton, care ne vaajuta sa identificam acele transformari, numite si canonice, care lasa invari-anta forma sistemului. Acestea sunt transformari care pastreaza structurasimplectica a fibratului cotangent T ∗M .

Consideram asadar o functie F (t, q, p), neteda si ne intereseaza cumvariaza aceasta de-a lungul traiectoriilor sistemului (2.4). Astfel,

d

dtF (t, q(t), p(t)) =

∂tF (t, q, p) +

∂F

∂q· q +

∂F

∂p· p =

=∂

∂tF (t, q, p) +

∂F

∂q· ∂H∂p− ∂F

∂p· ∂H∂q

=∂

∂tF (t, q, p) + H,F

unde H,F =∂H

∂p· ∂F∂q− ∂H∂q· ∂F∂p

reprezinta paranteza Poisson a functiilor

H,F . Forma Lax a sistemului hamiltonian (2.4) este data de

(2.5)d

dtF (t, q, p) =

∂tF (t, q, p) + H,F.

Observatia 2.1.1. Daca F nu depinde explicit de t atunci ecuatia (2.5)

devined

dtF (q, p) = H,F si conditia ca F sa fie integrala prima pentru

sistemul (2.4) se scrie H,F = 0. Daca ın plus H nu depinde de t atunciH este integrala prima. In cazul sistemelor mecanice, H are semnificatie deenergie; aceasta se conserva daca hamiltonianul nu depinde explicit de timp.

Observatia 2.1.2. Paranteza Poisson are urmatoarele proprietati ce severifica prin calcul direct:

• H,F = −F,H (antisimetrie)• F,G,H+G,H,F+H,F,G=0 (identitatea lui Jacobi)

31

Paranteza Poisson defineste astfel pe C∞(IR2n) o structura de algebra Lie.

Transformari canonice.

Ne propunem sa gasim o schimbare de coordonate T : (q, p) → (Q,P )care sa transforme sistemele de forma (2.4) ın sisteme de aceeasi forma,eventual mai usor de integrat. Folosim pentru aceasta forma (2.5) a sis-temului hamiltonian. Fie F = F (q, p) un hamiltonian neted si notam cuF (Q,P ) = F (q, p). Dorim ca ecuatia (2.5) ın noile cooronate sa aiba aceeasiforma si anume

d

dtF = F , H(Q,P ).

Acest lucru are loc pentru orice F,H daca si numai daca

F , H(Q,P ) = F,H(q,p),

de unde rezulta conditia necesara si suficienta:

(2.6)Pi, Q

j(q,p) = δji

Qi, Qj(q,p) = 0Pi, Pj(q,p) = 0, i, j = 1, n.

Transformarile care verifica aceste conditii se numesc transformari canonice.

Un alt punct de vedere care ne conduce la definirea transformarilorcanonice este legat de echivalenta dintre ecuatiile Euler-Lagrange si ecuatiilelui Hamilton. Mai precis, sa observam ca extremalele pentru

∫L(t, q, q)dt

sunt proiectiile extremalelor pentru∫−H(t, q, p) + qpdt pe spatiul q. Daca

consideram acum schimbarea de coordonate (q, p) → (Q,P ) iar hamilto-nianul ın noile coordonate este H∗ , i.e. H∗(t,Q, P ) = H(t, q, p), punem

conditia ca extremalele pentru∫−H(t, q, p)+qpdt sa coincida cu extremalele

pentru∫−H∗(t,Q, P ) + QPdt. Aceasta se ıntampla daca exista o functie

neteda pe fibratul cotangent T ∗M , S = S(t, q, p) astfel ıncat

(2.7) −H(t, q, p)dt + pdq = −H∗(t,Q, P )dt + PdQ+ dS,

adica cei doi integranzi difera printr-o diferentiala exacta. S se numestefunctie generatoare a transformarii canonice. Daca S se poate scrie ca ofunctie S = S1(t, q,Q), atunci din 2.7 rezulta ca

(2.8)

⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩

H∗ = H +∂S1

∂t(t, q,Q)

p =∂S1

∂q(t, q,Q)

P = −∂S1

∂Q(t, q,Q)

32

A doua ecuatie se poate rezolva, local, folosind teorema functiilor implicite,

daca∂2S1

∂q∂Qeste matrice nesingulara, caz ın care se obtine Q = Q(q, p).

A treia ecuatie ne furnizeaza P = P (q, p). Se pot construi si alte functiigeneratoare care sa depinda de alt grup de variabile. De exemplu, dacaadunam d(PQ) la (2.7), notam cu S2 = S + PQ si privim pe pe S2 cafunctie de (t, q, P ), S2 = S2(t, q, P ) obtinem

(2.9) (H∗ −H)dt+ pdq + qdP = dS2

deci

(2.10)

⎧⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎩

H∗ = H +∂S2

∂t(t, q, P )

p =∂S2

∂q(t, q, P )

Q =∂S2

∂P(t, q, P )

.

Aceste ecuatii definesc o transformare canonica daca∂2S2

∂q∂Peste matrice

nesingulara.

2.2. Variatia totala a unei functionale

Consideram din nou functionala J(q) =∫ t1

t0

L(t, q, q)dt si vom presupune

de data aceasta ca (t0, q0), respectiv (t1, q1), se misca pe cate o subvarietateM0, respectiv M1 din spatiul (t, q). Ne propunem sa calculam prima variatiea functionalei J . Pentru aceasta sa consideram o familie de curbe qs =qs(t), q0 = q, definite pe (t0(s), t1(s)), cu (ti(s), qs(ti(s))) ∈ Mi, i = 0, 1 sidepinzand neted de s. Notam cu qi(s) = qs(ti(s)), i = 0, 1 si cu

h(t) =d

ds|s=0q

s(t), t ∈ (t0, t1).

Derivata ın raport cu s o notam cu ′. Prima variatie a lui J ın q, ın directiah, este

δJ(q)h =d

ds|s=0J(qs) =

=∫ t1

t0

Lq(t, q, q)·h+Lq(t, q, q)·hdt+L(t1, q1, q(t1))t′1(0)−L(t0, q0, q(t0))t′0(0) =

=∫ t1

t0

(Lq(t, q, q)−

d

dtLq(t, q, q)

)· hdt+

+Lq(t, q, q)h|t1t0 + L(t1, q1, q(t1))t′1(0) − L(t0, q0, q(t0))t′0(0).

33

Notam cu p = Lq(t, q, q) si cu H = −L+ q ·Lq = p · q−L. Amintim ca (q, p)sunt variabilele canonice iar H este hamiltonianul sistemului. De asemenea,h(ti) = q′i(0)− q(ti), i = 0, 1. Astfel, prima variatie poate fi scrisa ın forma:

(2.11) δJ(q)h =∫ t1

t0

(Lq −

d

dtLq

)· hdt + (pδq −Hδt)|t=t1

t=t0 .

O extremala pentru problema generala de calculul variatiilor este o curbaq∗ pentru care δJ(q∗) = 0 si este, desigur, o extremala pentru problemasimpla de calculul variatiilor, cand capetele sunt fixate. Luand asadarh(t0) = h(t1) = 0 cu t0, t1 de asemenea fixate, obtinem ca o extremalaq∗ trebuie sa verifice ın primul rand ecuatiile Euler-Lagrange. Pentru oextremala q∗ are ın plus loc

δJ(q∗)h = (pδq −Hδt)|t=t1t=t0 = 0.

In concluzie, extremalele pentru problema generala de calculul variatiilorverifica sistemul

(2.12)

⎧⎪⎨⎪⎩Lq −

d

dtLq = 0

(pδq −Hδt)|t=t1t=t0 = 0.

Exemplul 2.2.1. Distanta dintre doua curbe Consideram doua curbeın IRn, q0 = ϕ(t0), q1 = ψ(t1). O curba q = q(t), q(t0) = q0, q(t1) = q1

are lungimea J(q) =∫ t1

t0

√1 + q2dt. Distanta ıntre cele doua curbe date

este o extremala pentru J . Variabilele canonice sunt q, p =q√

1 + q2iar

hamiltonianul H = − 1√1 + q2

. Cum lagrangeanul nu depinde de t, H = cst

deci q = cst si distanta se atinge pe o dreapta q(t) = at+ b.Conditia a doua din (2.12) devine

(p1ψ′(t1)−H|t=t1)δt1 − (p0ϕ

′(t0)−Ht=t0)δt0 = 0

si cum δt0, δt1 sunt variatii independente, rezulta ca 0 = p1ψ′(t1)−H|t=t1 =

p0ϕ′(t0)−Ht=t0 Deci

q(t0) = − 1ϕ′(t0)

, q(t1) = − 1ψ′(t0)

,

relatii care exprima faptul ca extremala trebuie sa fie ortogonala ın q0, q1pe curbele date.

Acestea sunt conditii de transversalitate si se regasesc ın aceeasi formaın cazul mai general al unui lagrangean de forma L(t, q, q) = f(t, q)

√1 + q2.

Daca t0, t1 sunt fixate iar q0, q1 se misca liber pe subvarietatile diferentiabileM0,M1 ⊂ M , atunci, pentru un lagrangean general, conditiile de transver-salitate ne spun ca starea adjuncta p este perpendiculara ın capete pe va-rietatile respective: pi = p(ti) ⊥Mi, i = 0, 1.

34

Extremale nenetede. Conditiile Weierstrass-Erdmann.

Consideram acum cazul ın care o extremala q = q(t) este neneteda, maiprecis este continua si de clasa C1 pe portiuni. Fie intervalele deschise (t0, c)si (c, t1) pe care presupunem ca h este neteda iar ın c avem salt al derivateiq. Vom nota cu J1, respectiv J2, functionala calculata pe intervalele (t0, c)si respectiv (c, t1). Are loc atunci

δJ = δJ1 + δJ2.

DarδJ1 = Lqδq|t=c−0 −H|t=c−0δc,

δJ2 = −Lqδq|t=c+0 +H|t=c+0δc.

Obtinem asadarδJ = Lq|t=c−0

t=c+0δq|t=c +H|t=c+0t=c−0δc.

Cum δq(c) si δc sunt variatii independente, rezulta ca

(2.13)

⎧⎨⎩ Lq|t=c−0 = Lq|t=c+0

−L+ q · Lq|t=c−0 = −L+ q · Lq|t=c+0.

Acestea sunt conditiile Weierstrass-Erdmann care exprima faptul ca, de-alungul extemalelor, variabilele canonice q, p si hamiltonianul H sunt functiicontinue.

2.3. Ecuatia Hamilton-Jacobi. Metoda lui Jacobi de integrare asistemelor hamiltoniene

In cele ce urmeaza presupunem ca lagrangeanul L este regulat, adicamatricea (Lqq) este matrice nesingulara. Aceasta ınseamna ca sistemul 1.4este un sistem diferential de ordinul 2, nedegenerat. Daca fixam q(t0), atuncisolutia sistemului 1.4 depinde de n parametri q, deci pentru (t, q) ıntr-ovecinatate suficient de mica a lui (t0, q0), exista o unica extremala care uneste(t0, q0) cu (t, q); o notam cu γt,q si definim functia

S(t, q) = J(γt,q).

Proprietatea de dependenta diferentiabila de datele initiale a solutiei pro-blemei Cauchy pentru ecuatiile Euler-Lagrange ne asigura ca S ∈ C1. Incele ce urmeaza, studiem functia S si aratam ca ea satisface o ecuatie cuderivate partiale de ordinul ıntai. Fie t = t(s), t(0) = t, q = q(s), q(0) = qcurbe netede. Atunci:

d

dsS(t(s), q(s))|s=0 =

∂S

∂t(t, q)t′(0) +

∂S

∂q(t, q) · q′(0).

Pe de alta parte, folosind (2.11), obtinem

d

dsJ(γt(s),q(s))|s=0 = p(t) · q′(0)−H(q, p(t))t′(0)

35

Cum (t, q) este arbitrar ın vecinatatea lui (t0, q0), din cele doua relatiiobtinem ca:

p =∂S

∂q(t, q), H(t, q, p) = −∂S

∂t(t, q),

deci

(2.14)∂S

∂t(t, q) +H(t, q,

∂S

∂q)(t, q) = 0.

Aceasta este ecuatia Hamilton-Jacobi, o ecuatie cu derivate partiale de or-dinul I. Sistemul hamiltonian (2.4) reprezinta sistemul caracteristic pen-tru aceasta ecuatie cu derivate partiale. Curbele integrale ale sistemuluihamiltonian sunt caracteristicile ecuatiei Hamilton-Jacobi (vezi [4],[35]).Metoda caracteristicilor se aplica pentru integrarea ecuatiei cu derivatepartiale folosind sistemul caracteristicilor. Metoda lui Jacobi, care va fiprezentata ın continuare, se foloseste pentru a gasi curbele integrale pentrusistemul hamiltonian (2.4) folosind o solutie generala a ecuatiei Hamilton-Jacobi (2.14), solutie care trebuie sa depinda de exact n parametri. Acestlucru se ıntampla, dupa cum se va vedea, ın cazul ın care variabilele se potsepara.

Teorema 2.3.1. (Jacobi) . Presupunem ca S = S(t, q, C1, . . . , Cm)este o solutie a ecuatiei (2.14), solutie ce depinde neted de m parametri

C1, . . . , Cm Atunci Dj =∂S

∂Cj, j = 1,m sunt integrale prime pentru sistemul

hamiltonian (2.4). Daca solutia depinde de n parametri C1, . . . , Cn astfelıncat

(2.15) rang(

∂2S

∂qi∂Cj

)i,j=1,n

= n,

atunci o solutie generala a sistemului hamiltonian (2.4), depinzand de 2nconstante de integrare Ci,Di, i = 1, n, este data, prin intermediul teoremeifunctiilor implicite, de

(2.16)

⎧⎪⎪⎪⎨⎪⎪⎪⎩Di =

∂S

∂Ci(t, q, C)

pi =∂S

∂qi(t, q, C)

.

Demonstratie Derivam ecuatia (2.14) ın raport cu Cj si obtinem:

∂2S

∂t∂Cj+

n∑i=1

∂H

∂pi

∂2S

∂qi∂Cj= 0.

36

Obtinem ca

d

dt

(∂S

∂Cj(t, q(t), C)

)=

∂2S

∂t∂Cj(t, q(t), C) +

n∑i=1

∂2S

∂qi∂Cj(t, q(t), C)qi =

=n∑

i=1

∂2S

∂qi∂Cj(t, q(t), C)

(qi − ∂H

∂pi

)= 0

si prima parte a teoremei este demonstrata.Cnsideram acum sistemul (2.16). Teorema functiilor implicite aplicata ın

(2.16), folosind conditia de nedegenerare (2.15), ne asigura existenta localaa functiilor q(t, C,D), p(t, C,D). Ceea ce ramane de demonstrat este cafunctiile q, p verifica sistemul hamiltonian (2.4). Derivand prima ecuatie ınraport cu t, cu un calcul similar cu cel anterior si folosind ecuatia (2.14),obtinem

0 =d

dt

(∂S

∂Cj

)=

n∑i=1

∂2S

∂qi∂Cj

(qi − ∂H

∂pi

).

Folosind din nou conditia de nedegenerare (2.15), avem ca qi =∂H

∂pi, adica

primul grup de ecuatii din (2.4).Derivam acum a doua ecuatie din (2.16) si, folosind si ecuatia (2.14), obtinem

pi =d

dt

∂S

∂qi(t, q, C) =

∂2S

∂qi∂t(t, q, C) +

n∑j=1

∂2S

∂qi∂qj(t, q, C)qj =

= − ∂

∂qiH(t, q,

∂S

∂q(t, q, C)) +

n∑j=1

∂2S

∂qi∂qj(t, q, C)

∂H

∂pj=

= −∂H∂qi

(t, q, p) +n∑

j=1

(qi − ∂H

∂pj

)∂2S

∂qi∂qj= −∂H

∂qi(t, q, p).

Observatia 2.3.1. Putem privi pe S ca functie generatoare, Pi = Ci

noile impulsuri generalizate, Qi = Di noile coordonate generalizate. Schim-barea canonica de coordonate este data de (2.10). In noul sistem de coor-donate (Q,P ), hamiltonianul este H∗ = 0 iar curbele integrale sunt Qi =cst, Pi = cst, adica exact (2.16).

Observatia 2.3.2. Presupunem ca ın hamiltonianul H una din variabilese separa, mai precis

H(t, q, p) = H1(q1, p1) + H(t, q, p),

unde q = (q2, . . . , qn), p = (p2, . . . , pn). Atunci putem cauta solutia ecuatieiHamilton-Jacobi (2.14) de forma S(t, q) = S1(q1) + S(t, q) unde S1, S2

37

verifica ecuatiile de tipul (2.14):

H1(q1, S′1(q1)) = C1

St + H(t, q, Sq) = −C1.

Prima este de fapt o ecuatie diferentiala care, daca poate fi adusa la formanormala prin teorema functiilor implicite, devine o ecuatie cu variabile se-parabile care poate fi integrata. Unei ecuatii Hamilton-Jacobi i se poate gasio solutie generala depinzand de n constante daca toate variabilele se separa.

Atractia de catre doua mase egale, fixe. Consideram exemplul 1.1.5. Hamil-tonianul sistemului se calculeaza (folosind de exemplu transformata Le-gendre) si se obtine

H(ξ1, ξ2, p1, p2) = 2p21

ξ21 − 4l2

ξ21 − ξ22+ 2p2

2

4l2 − ξ22ξ21 − ξ22

− 4kξ1ξ21 − ξ22

.

Cautam o solutie generala pentru ecuatia Hmilton-Jacobi corespunzatoare.Pentru aceasta sa observam ca variabilele se separa daca scriem ecuatia subforma (

∂S

∂ξ1

)2

(ξ21 − 4l2) +(∂S

∂ξ2

)2

(4l2 − ξ22) = C1(ξ21 − ξ22) + 4kξ1.

Separam variabilele si cautam solutii pentru urmatoarele ecuatii Hamilton-Jacobi: (

∂S

∂ξ1

)2

(ξ21 − 4l2)− 4kξ1 − C1ξ21 = C2,

(∂S

∂ξ2

)2

(4l2 − ξ22) + C1ξ22 = −C2.

Gasim solutia generala

S(ξ1, ξ2, C1, C2) =∫ √

4kξ1 + C1ξ21 + C2

ξ21 − 4l2dξ1 +

∫ √−C1ξ22 − C2

4l2 − ξ22dξ2.

deci gasim, cu ajutorul teoremei 2.3.1, forma explicita a taiectoriilor sis-temului mecanic considerat.

38

Partea 2

Controlul sistemelor diferentiale

CAPITOLUL 3

Controlul sistemelor liniare

3.1. Controlabilitatea sistemelor liniare

Consideram sistemul liniar controlat

(3.1)y′ = A(t)y +B(t)uy(0) = y0

unde t → A(t) ∈ Mn(IR), t → B(t) ∈ Mn×m(IR) sunt functii continue.Multimea controalelor admisibile este ın cele ce urmeaza U = L2(0, T ; IRm).Solutia sistemului (3.1) este data de formula variatiei constantelor:

yu(t) = S(t, 0)y0 +∫ t

0S(t, s)Bu(s)ds,

unde S(t, s) = X(t)X(s)−1 cu X(t) matrice fundamentala a sistemului liniaromogen y′ = A(t)y. Vom mai nota solutia yu cu yy0,u, atunci cand va finecesar sa punem ın evidenta si starea initiala. Notiunile de controlabili-tate nula, aproximativa, exacta si de stabilizabilitate au fost introduse ıncapitolul introductiv, pag. 4. In cazul sistemelor liniare de tipul (3.1), candA,B sunt matrici constante, vom mai spune despre perechea (A,B) ca areproprietatile mentionate, adica este controlabila, stabilizabila etc.Fie acum sistemul adjunct:

(3.2)p′ +A∗(t)p = 0p(T ) = ξ

Solutia acestui sistem este p(t) = S∗(T, t)ξ.

Teorema 3.1.1. i) Sistemul liniar (3.1) este aproximativ controlabil ıntimp T daca si numai daca, pentru p solutie a sistemului adjunct,

(3.3) B∗p(t) ≡ 0, t ∈ (0, T )⇒ p(t) ≡ 0, t ∈ (0, T ).

ii) Sistemul (3.1) este exact nul controlabil ın timp T daca si numai dacaexista o constanta C astfel ıncat pentru orice ξ ∈ IRn, solutia sistemuluiadjunct (3.2) verifica

(3.4) |p(0)|2 ≤ C∫ T

0|B∗p(t)|2dt.

Demonstratie i) Notam cu

X(T ) =∫ T

0S(T, s)Bu(s)ds|u ∈ U

,

41

multimea starilor finale posibile pentru sistem, cu starea initiala y0 = 0.Sistemul este aproximativ controlabil daca si numai daca X(T ) = IRn sau,echivalent, (

ξ,

∫ T

0S(T, s)Bu(s)ds

)IRn

= 0,∀u ∈ U ⇒ ξ = 0.

Are loc ınsa egalitatea(ξ,

∫ T

0S(T, s)Bu(s)ds

)IRn

= (B∗S∗(T, ·)ξ, u(·))L2(0,T ;IRm)

si concluzia rezulta imediat daca tinem seama de faptul ca solutia sistemuluiadjunct (3.2) este p(t) = S∗(T, s)ξ.ii) Sistemul este exact nul controlabil ın timp T daca si numai daca, pentru

orice y0 ∈ IRn, exista u ∈ U astfel ıncat S(T, 0)y0 = −∫ T

0S(T, s)Bu(s)ds

sau, echivalent, exista ρ > 0 astfel ıncat

S(T, 0)y0 ∈∫ T

0S(T, s)Bu(s)ds : ‖u‖L2(0,T ;IRm) ≤ ρ

.

Date doua multimi convexe si ınchise A1, A2 ⊂ IRn, atunci A1 ⊂ A2 dacasi numai daca H1(ξ) ≤ H2(ξ),∀ξ ∈ IRn, unde Hi sunt functiile suport alemultimilor Ai, definite prin Hi(ξ) = supy∈Ai

(ξ, y), i = 1, 2. Alegem A1 =

S(T, 0)y0 si A2 =∫ T

0S(T, s)Bu(s)ds, ‖u‖L2(0,T ;IRm) ≤ ρ

. Functiile su-

port ale acestor multimi sunt

H1(ξ) = (ξ, S(T, 0)y0), H2(ξ) = ρ‖B∗(·)S∗(T, ·)ξ‖L2(0,T ;IRm).

Daca are loc (3.4), atunci H1(ξ) ≤ |y0||S∗(T, 0)ξ| ≤ H2(ξ) daca alegemρ =√C|y0|.

Reciproc, daca sistemul (3.1) este nul controlabil, rezulta ca, pentru oricey0 ∈ IRn, exista ρ > 0 astfel ıncat pentru orice ξ ∈ IRn

(ξ, S(T, 0)y0) ≤ ρ‖B∗(·)S∗(T, ·)ξ‖L2(0,T ;IRm).

Presupunem prin reducere la absurd ca inegalitatea (3.4) nu are loc. Existaatunci un sir ξn ∈ IRn astfel ıncat

|S∗(T, 0)ξn| ≥ n(∫ T

0|B∗(t)S∗(T, t)ξn|2dt

) 12

.

Putem presupune, dupa o eventuala rescalare, ca |ξn| = 1 si, trecand la unsubsir convergent, sa gasim la limita ξ, |ξ| = 1 astfel ıncat B∗(t)S∗(T, t)ξ ≡0, t ∈ (0, T ). De aici, folosind ipoteza de controlabilitate, avem ca pentruorice y0 ∈ IRn, (ξ, S(T, 0)y0) = 0, deci S∗(T, 0)ξ = 0. Cum S∗(T, 0) estenesingulara, rezulta ca ξ = 0, ceea ce contrazice faptul ca |ξ| = 1.

42

Observatia 3.1.1. Proprietatea (3.3) se numeste proprietate de unicacontinuare. Inegalitatea (3.4) se numeste inegalitate de observabilitate siaceasta implica unica continuare. In cazul sistemelor diferentiale finit di-mensionale pe care le studiem aici, facem observatia ca cele doua proprietatisunt echivalente si sunt de asemenea echivalente cu controlabilitatea exacta asistemului. Intr-adevar, daca sistemul este aproximativ controlabil, rezultaca X(T ) = IRn si, cum subspatiile spatiului euclidian IRn sunt subspatiiınchise, rezulta ca X(T ) = IRn, deci sistemul este controlabil

Acest lucru rezulta si din urmatoarea teorema care, ın plus, ne da oalta caracterizare a controlabilitatii si o forma explicita a controlului caretransforma starea initiala a ın starea finala b.

Teorema 3.1.2. Fie operatorul (matricea de controlabilitate):

QT =∫ T

0S(T, s)B(s)B∗(s)S∗(T, s)ds.

Sistemul (3.1) este aproximativ controlabil daca si numai daca QT este ma-trice nesingulara. In acest caz sistemul este exact controlabil si controlul

u∗(t) = −B∗(t)S∗(T, t)Q−1T (S(T, 0)a − b)

transforma starea initiala a ın starea finala b, adica ya,u∗(T ) = b. In plus,∫ T

0|u∗(s)|2ds ≤

∫ T

0|u(s)|2ds,

pentru orice control u ∈ U cu proprietatea ca ya,u(T ) = b.

Demonstratie Matricea QT este simetrica. Sa presupuem ca estee nesin-gulara. Formula variatiei constantelor ne da

ya,u∗(T ) = S(T, 0)a +

∫ T

0S(T, s)B(s)B∗(s)S∗(T, s)Q−1

T (S(T, 0)a − b)ds =

= S(T, 0)a +QTQ−1T (S(T, 0)a − b) = b.

Deci sistemul este exact controlabil ın timp T .Reciproc, sa presupunem ca sistemul este aproximativ controlabil. Daca

(QT ξ, ξ) = 0, rezulta ca B∗(s)S∗(T, s)ξ ≡ 0 pe (0, T ) si din proprietatea deunica continuare rezulta ca ξ = 0, deci matricea QT est nesingulara.

In cazul ın care are loc controlabilitatea sistemului liniar, un calcul sim-plu ne arata ca∫ T

0|u∗|2ds = (Q−1

T (S(T, 0)a− b), (S(T, 0)a − b))

Daca u este alt control cu proprietatea ca ya,u(T ) = 0 atunci∫ T

0(u(s), u(s)∗)ds = −

∫ T

0(S(T, s)B(s)u(s), Q−1

T (S(T, 0)a − b))ds =

43

= (Q−1T (S(T, 0)a− b), (S(T, 0)a − b)) =

∫ T

0|u∗(s)|2ds.

De aici rezulta imediat ca∫ T

0|u(s)|2ds =

∫ T

0|u(s)− u∗(s)|2ds +

∫ T

0|u∗(s)|2ds ≥

∫ T

0|u∗(s)|2ds.

Consideram operatorul KT : L2(0, T, IRm)→ IR dat de

KT (u) =∫ T

0S(T, s)B(s)u(s)ds.

Este clar ca X(T ) = Im KT . Consideram ın cele ce urmeaza ca matricileA,B nu depind de t, deci S(t, s) = e(t−s)A. Fie de asemenea kn : (IRm)n →IRn definit de

kn(v0, v1, . . . , vn−1) =n−1∑j=0

AjBvj, vj ∈ IRm.

Teorema 3.1.3. (Kalman) Im KT = Im kn. Sistemul liniar este con-trolabil daca si numai daca rangul matricei [A|B] := [B,AB, . . . , An−1B] ∈Mn×nm este n. Matricea [A|B] se mai numeste matricea Kalman. Pro-prietatea de controlabilitate ın timp T este echivalenta cu proprietatea decontrolabilitate ın orice timp.

Demonstratie Pentru ca Im KT = Im kn este suficient sa aratam cav ⊥ Im KT ⇔ v ⊥ Im kn.

v ⊥ Im KT daca si numai daca, pentru orice u ∈ L2(0, T, IRm),

0 = (v,∫ T

0S(T, s)Bu(s)ds)IRm = (B∗S∗(T, ·)v, u)L2(0,T,IRm),

deci daca si numai daca B∗e(T−s)A∗v ≡ 0, s ∈ (0, T ). Facem s = T si

calculam primele n − 1 derivate ın s = T si obtinem ca B∗e(T−s)A∗v ≡ 0

implica B∗v = B∗A∗v = . . . = B∗(A∗)n−1v = 0. Reciproc, daca B∗v =B∗A∗v = . . . = B∗(A∗)n−1v = 0 rezulta, folosind teorema lui Hamilton-Cayley, ca B∗(A∗)mv = 0,∀m ≥ 0. Deci, tinand cont de dezvoltarea ın seriede puteri a lui e(T−s)A∗

, rezulta ca B∗e(T−s)A∗v ≡ 0.

Pe de alta parte, v ⊥ Im kn daca si numai daca (v,AjBw) = 0 pentruj = 0, . . . , n − 1 si pentru orice w ∈ IRm, ceea ce este echivalent cu B∗v =B∗A∗v = . . . = B∗(A∗)n−1v = 0.

Controlabilitatea exacta ın timp T are loc deci daca si numai daca B∗v =B∗A∗v = . . . = B∗(A∗)n−1v = 0 implica v = 0. Aceasta ınseamna carang [A|B] = n.

44

Clasificarea sistemelor liniare controlate.

Consideram cate o schimbare de baza ın spatiul starilor, respectiv ınspatiul controalelor: z = Sy, v = Tu cu S ∈ Mn×n(IR), T ∈ Mm×m(IR)matrici nesingulare. Sistemul liniar controlat (3.1) se transforma ın sistemulz′ = A1z + B1v unde A1 = SAS−1, B1 = SBT−1. Avem aici definita orelatie de echivalenta ın multimea sistemelor liniare controlate, mai precis,spunem ca sistemele (A,B) si (A1, B1) sunt echivalente daca exista matricilenesingulare S ∈Mn×n(IR), T ∈Mm×m(IR) astfel ıncat A1 = SAS−1, B1 =SBT−1.

Consideram cazulm = 1 si o pereche (A, b), A ∈Mn×n(IR), b ∈Mn×1(IR)

Teorema 3.1.4. Presupunem ca perechea (A, b) este controlabila. Atuncisistemul corespunzator este echivalent cu ecuatia controlata

y(n) + a1y(n−1) · · · any = u,

unde p(λ) = λn+a1λn−1+· · ·+an = det(λI−A) este polinomul caracteristic

al matricei A.

Demonstratie Deoarece perechea (A, b) este controlabila, rezulta ca vec-torii b,Ab, . . . An−1b sunt liniar independenti. Construim vectorii e1, . . . , enastfel:

(3.5)en = bek−1 = Aek + an−k+1en, k = 2, n

Se verifica imediat ca (e1, . . . , en) sunt liniar independenti si ca Ae1 =−anen. Scriem sistemul ın aceasta baza si concluzia este imediata.

Teorema 3.1.5. (Teorema de descompunere a lui Kalman) Presupunemca rangul matricei lui Kalman [A|B] este l < n. Exista atunci o matricenesingulara S ∈Mn(IR) astfel ıncat

SAS−1 =(A11 A12

0 A22

), SB =

(B11

0

)unde A11 ∈ Ml(IR), B11 ∈ Ml×m(IR) iar perechea (A11, B11) este controla-bila.

Demonstratie Stim ca Im KT = Im kn si ca dim Im kn = l, rangul matri-cei [A|B]. Pe de alta parte, tinand seama de teorema lui Hamilton-Cayley,X(T ) = Im kn este cel mai mic subspatiu al lui IRn ce contine Im B si esteinvariant la A. Fie asadar o baza (f1, . . . , fl) a lui Im kn pe care o completamla o baza a lui IRn, obtinand astfel o baza (f1, . . . , fn). Fie S matricea aces-

tei schimbari de baza. In noua baza, pentru ξ =(ξ1ξ2

)∈ IRn,ξ1 ∈ IRl, are

loc ξ ∈ X(T ) ⇔ ξ2 = 0. Notand cu z = Sy,A1 = SAS−1 si cu B1 = SB,sistemul devine:

z′ = A1z +B1u.

45

Notam A1 =(A11 A12

A21 A22

), B1 =

(B11

B21

)si aratam ca A21 = 0, B21 = 0.

Deoarece X(T ) este invariant la A, rezulta ca A1

(ξ10

)trebuie sa aiba

ultimele n − l componente 0, deci A21ξ1 = 0. Cum ξ1 este arbitrar rezultaca A21 = 0. Deoarece Im B ⊂ X(T ), trebuie ca B1u sa aiba ultimele n− lcomponente 0 pentru orice u ∈ IRm. Deci B21u = 0,∀u si obtinem B21 = 0.Pentru a arata ca perechea (A11, B11) este controlabila observam ca:

l = rang [A|B] = rang S[A|B] = rang [A1|B1] = rang(

[A11|B11]0

),

deci rang [A11|B11] = l si perechea (A11, B11) este controlabila.

3.2. Control optimal. Principiul de maxim al lui Pontriaghin

Consideram problema de control optimal de tip Bolza:

(3.6) inf J(yu, u), J(y, u) =∫ T

0L(t, y(t), u(t))dt + l(y(T )),

(3.7)y′(t) = f(t, y(t), u(t)))y(t0) = y0

Ne propunem sa obtinem conditii de optimalitate pe o cale asemanatoarecelei urmate pentru a deduce ecuatiile Euler-Lagrange.

Vom considera ın cele ce urmeaza ca f, L, l sunt functii de clasa C1 ınraport cu y, u si L∞

loc ın ansamblul variabilelor. Notam, pentru simplitate,J(u) := J(yu, u). Presupunem ca exista un control optimal u∗. Atunciprima variatie a lui J ın u∗ este pozitiva:

δJ(u∗)v =d

dλJ(u∗ + λv)|λ=0+ ≥ 0

pentru orice v ∈ U cu proprietatea ca u∗ + λv ∈ U cand 0 < λ < ε suficientde mic. Notam cu

z =d

dλ|λ=0y

u∗+λv

si obtinem

(3.8) 0 ≤∫ T

0Ly(t, y∗, u∗)z + Lu(t, y∗, u∗)vdt+∇l(y(T )) · z(T ).

De asemenea, z verifica ecuatia ın variatie (v. [4],[35]):

(3.9)z′ = fy(t, y∗, u∗)z + fu(t, y∗, u∗)vz(0) = 0.

Sa definim, ca si ın calculul variatiilor, hamiltonianul depinzand de u

(3.10) Hu(t, y, p) = (p, f(t, y, u)) − L(t, y, u)

46

Sistemul hamiltonian corepunzator estey′ = f(t, y, u)p′ = −(p, fy(t, y, u)·) + Ly(t, y, u) = −f∗y (t, y, u)p + Ly(t, y, u)

Se observa ca prima ecuatie, ın y, este chiar ecuatia (3.7). Consideram p∗solutia celei de a doua ecuatii cu conditia Cauchy ın capatul final:

(3.11)p′ = −f∗y (t, y, u)p + Ly(t, y, u)p(T ) = −∇l(y(T )) .

Inmultim (3.9) cu p∗, (3.11) cu z, adunam ecuatiile si integram pe (0, T ).Obtinem:

−(∇l(y(T )), z) =∫ T

0(p∗, fu(t, y∗, u∗)v) + (Ly(t, y∗, u∗), z)dt

egalitate care substituita ın (3.8) ne da

0 ≤∫ T

0(p∗, fu(t, y∗, u∗)v)− (Lu(t, y∗, u∗), v)dt.

Cum DuHu∗

(t, y∗, p∗)v = (p∗, fu(t, y∗, u∗)v) − (Lu(t, y∗, u∗), v), obtinem caDuH

u∗(t, y∗, p∗) ≡ 0, t ∈ [0, T ]. Daca f(t, y, u) = A(t)y + B(t)u iar L este

convex ın u (de exemplu L(t, y, u) = (Qy, y) + (Ru, u) cu R matrice pozitivdefinita), atunci Hu este concav ın u si se obtine imediat ca

(3.12) Hu∗(t, y∗(t), p∗(t)) = max

u∈UHu(t, y∗(t), p∗(t)).

Acesta este ın esenta continutul principiului de maxim al lui Pontriaghin.El este valabil ın ipoteze mult mai generale asupra datelor problemei(v.[13],[14],[6]). Forma geometrica a acestuia, demonstratia corespunzatoaresi formularea acestuia ın cazul problemelor de alt tip (Lagrange,Mayer, timpliber etc.) vor fi prezentate ın capitolul 6.

Principiul de maxim ne permite ın anumite situatii determinarea con-trolului optimal. Astfel, sa notam hamiltonianul maximizat cu

Hmax(t, y, p) = maxu∈U

Hu(t, y, p)

si sa presupunem ca acesta este de clasa C1. Are loc Hmax(t, y∗, p∗) −Hu∗

(t, y, p) ≥ 0 cu egalitate pentru y = y∗, p = p∗. Deci∂

∂yHmax(t, y∗, p∗) =

∂yHu∗

(t, y∗, p∗),∂

∂pHmax(t, y∗, p∗) =

∂pHu∗

(t, y∗, p∗).

Problema se reduce asadar la rezolvarea sistemului hamiltonian corespunzatorhamiltonianului maximizat Hmax, cu conditiile la limita precizate. Controluloptimal se exprima, folosind conditia (3.12), ın functie de (y∗, p∗).

47

3.3. Ecuatia programarii dinamice

Controlul optimal u∗ determinat prin conditiile de optimalitate (prin-cipiul de maxim al lui Pontriaghin) este un control cu bucla deschisa. Casi ın cazul problemei de calculul variatiilor, un alt mod de abordare estede a ıncadra problema ıntr-o familie de probleme de control. Si ın cazulde fata se va obtine o ecuatie cu derivate partiale de ordinul I, ecuatiaHamilton-Jacobi-Bellman, sau ecuatia programarii dinamice. Rezolvareaacesteia ne da o formula a controlului optimal ın forma feedback (control cubucla ınchisa). Aceasta este problema de sinteza a controlului optimal.

Consideram problema de control optimal (3.6), (3.7). O functie K :[0, T ] × IRn → IRm, masurabila Borel, se numeste control feedback pentrusistemul (3.7), daca pentru orice (t0, y0) ∈ [0, T ] × IRn, problema Cauchy

(3.13)y′(t) = f(t, y(t),K(t, y(t))), a.p.t. t ∈ (t0, T )y(t0) = y0

are cel putin o solutie y ∈ C([0, T ]; IRn). Sistemul (3.13) se numeste sistemcu bucla ınchisa.

Reprezentarea controlului optimal ın forma feedback se numeste pro-blema de sinteza a controlului optimal. Functia K este numita si functiade sinteza pentru problema corespunzatoare de control optimal. Problemade sinteza este legata de o ecuatie cu derivate partiale de ordinul I, ecuatiaHamilton-Jacobi-Bellman, sau ecuatia programarii dinamice:(3.14)ϕt(t, x) − sup

u∈U−(ϕx(t, x), f(t, x, u)) − L(t, x, u) = 0, x ∈ IRn, t ∈ [0, T ]

ϕ(T, x) = l(x), x ∈ IRn,

unde

ϕt =∂ϕ

∂t, ϕx =

∂ϕ

∂x·

Notand cu H : [0, T ] × IRn → IR hamiltonianul definit de:

(3.15) H(t, x, p) = supu∈U−(p, f(t, x, u))− L(t, x, u),

rescriem (3.14) ın forma

(3.16)ϕt(t, x)−H(t, x, ϕx(t, x)) = 0 t ∈ (0, T ), x ∈ IRn

ϕ(T, x) = l(x) x ∈ IRn..

Introducem functia

(3.17) Φ(t, x) = argsupu∈U−(ϕx(t, x), f(t, x, u)) − L(t, x, u).Fie ψ : [0, T ]× IRn → IR functia valoare asociata problemei de control:

(3.18)ψ(t, x) = inf

u

∫ T

tL(s, y(s), u(s))ds + l(y(T )),

y′(s) = f(s, y(s), u(s)), s ∈ (t, T ), y(t) = x .

48

Teorema 3.3.1. Fie ϕ ∈ C1([0, T ] × IRn) solutie a ecuatiei Hamilton–Jacobi (3.16) cu conditia Cauchy ϕ(T, ·) = l(·). Consideram Φ drept controlfeedback. Atunci

ϕ(t, x) = ψ(t, x), ∀(t, x) ∈ (0, T ) × IRn

si Φ este un control feedback optimal.

Demonstratie Fie (t, x) fixat si fie yt solutia problemei

(3.19) (yt)′ = f(s, yt,Φ(s, yt(s))), s ∈ (t, T ), yt(t) = x.

Are loc a.p.t s ∈ (t, T ):

(3.20)d

dsϕ(s, yt(s)) = ϕs(s, yt(s)) + (ϕy(s, yt(s)), f(s, yt(s),Φ(s, yt(s)))

Din (3.17) vedem ca a.p.t s ∈ (t, T ):d

dsϕ(s, yt(s)) = ϕs(s, yt(s))−H(s, yt(s), ϕy(s, yt(s))−L(s, yt(s),Φ(s, yt(s)).

De aici, folosind (3.16) obtinem:d

dsϕ(s, yt(s)) = −L(s, yt(s),Φ(s, yt(s)),

deci

(3.21) ϕ(t, x) =∫ T

tL(s, yt(s),Φ(s, yt(s))ds + l(yt(T )) ≥ ψ(t, x).

Daca (y, v) este pereche admisibila ın problema (3.6), (3.7), are loc:d

dsϕ(s, y(s)) = ϕs(s, y(s)) + (ϕx(s, y(s)), f(s, y(s), v(s))) ≥

≥ ϕs(s, y(s))−H(s, y(s), ϕx(s, y(s)))− L(s, y(s), v(s)),deci:

d

dsϕ(s, y(s)) ≥ −L(s, y(s), v(s)) a.e. s ∈ (t, T )

si astfel

(3.22) ϕ(t, x) ≤∫ T

tL(s, y(s), v(s))ds + l(y(T )).

Intrucat (y, v) a fost arbitrar ales, din (3.21) si (3.22) ca ϕ = ψ. In plus,din (3.21) rezulta, facand t = 0, obtinem ca u = Φ(t, y(t)) este un controlfeedback optimal.

Observatia 3.3.1. Functia valoare ψ este, ın conditii de regularitate,solutie clasica a ecuatiei programarii dinamice. Daca ψ este numai con-tinua, atunci ea ramane solutie a ecuatiei respective ınsa ıntr-un sens gen-eralizat si anume este solutie de vascozitate (v. [18],[19],[20],[21]).

Observatia 3.3.2. Ecuatia (3.16) este ecuatia Hamilton-Jacobi (v §2.3)asociata sistemului hamiltonian cu hamiltonianul Hmax obtinut ın studiulprincipiului de maxim ın §3.6.

49

3.4. Problema regulatorului liniar-patratic

Sa ilustram ideile dezvoltate ın paragrafele anterioare ın cazul urmatoareiprobleme Bolza pentru o ecuatie liniara cu functionala de cost patratica:

(3.23)

inf J(yu, u), J(y, u) =12

∫ T

0(Q(t)y, y) + (R(t)u, u)dt +

12(P0y(T ), y(T )),

(3.24)y′(t) = A(t)y +B(t)u+ f(t)y(t0) = y0,

unde A,Q ∈ L∞(0, T,Mn(IR)), P0 ∈ Mn(IR), R ∈ L∞(0, T,Mm(IR)),B ∈ L∞(0, T,Mn×m(IR)), R(t) pozitiv definita, ∀t ∈ (0, T ). Hamiltoni-anul sistemului este

Hu(t, y, p) = (p,A(t)y +B(t)u+ b(t))− 12

[(Q(t)y, y) + (R(t)u, u)] .

Hamiltonianul Hu se maximizeaza pentru

(3.25) u = R−1B∗p

deci hamiltonianul maximizat este

(3.26) Hmax(t, y, p) = (p,Ay) +12(p,BR−1B∗p) + (p, f)− 1

2(Qy, y)

Pentru simplitatea scrierii am omis argumentul t; astfel, t intervine ın Hprin intermediul lui A(t), B(t), R(t).

O cale de determinare a controlului optimal este principiul de maximstabilit ın §3.2. Daca exista un control optimal u∗, atunci determinareaacestuia se poate face rezolvand problema la limita pentru sistemul hamil-tonian corespunzator lui H :

(3.27)

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩y′ = Ay +BR−1B∗p+ f t ∈ (0, T )

p′ = −A∗p+Qy t ∈ (0, T )

y(0) = y0, p(T ) = −P0y(T ) ,

iar controlul optimal u∗ se exprima ın functie de starea adjuncta p conformformulei (3.25)

Decuplarea sistemului hamiltonian (3.27) se poate face cautand pe p cafunctie de y:

p(t) = −P (t)y(t) + r(t),

unde P : [0, T ]→Mn(IR) iar r : [0, T ]→ IRn. Problema la limita (3.27) estesatisfacuta de y si de p dat ın forma de mai sus daca P (t), respectiv r(t)

50

satisfac urmatoarele doua probleme Cauchy

(3.28)

⎧⎨⎩ P ′ + PA+A∗P − PBR−1B∗P +Q = 0

P (T ) = P0

(3.29)

⎧⎨⎩ r′ = −(A∗ − PBR−1B∗)r − Pf

r(T ) = 0.

Ecuatia (3.28) se numeste ecuatia diferentiala Riccati . Odata rezolvateaceste doua probleme Cauchy, controlul optimal u∗ se poate exprima ınforma feedback

(3.30) u∗ = R−1B∗p = R−1B∗(−P (t)y + r(t)).

O alta abordare a problemei liniar patratice este folosirea principiuluiprogramarii dinamice al lui Bellman. Fie ψ functia valoare a problemei,definita ca ın (3.18). Hamiltonianul definit ın (3.15) verifica:

H(t, y, p) = Hmax(t, y,−p)iar Φ(t, x) definita ın (3.17) este

Φ(t, x) = −R−1B∗ϕx

unde ϕ este solutia ecuatiei Hamilton-Jacobi-Bellman (3.16), care devine

(3.31)

⎧⎨⎩ϕt(t, x)−Hmax(t, x,−ϕx(t, x)) = 0

ϕ(T, x) = 12(P0x, x)

Teorema 3.3.1 ne spune ca daca ϕ este solutie de clasa C1, atunci Φ definestecontrolul optimal ın forma feedback u(t) = Φ(t, y(t)). Cautam solutia ϕ deforma

ϕ(t, x) =12(P (t)x, x) + (r(t), x) + b(t).

Introducem ın (3.31) si obtinem ca ϕ este solutie daca P, r verifica (3.28),respectiv (3.29) iar b verifica

(3.32) b′ =12(B∗r,R−1B∗r)− (r, f), b(T ) = 0.

Observam aici ca dificultatea principala este rezolvarea problemei (3.28),care contine o neliniaritate patratica. Problemele (3.29) si (3.32) sunt liniaresi nu prezinta dificultati din punct de vedere teoretic: odata determinat P ,se determina r si apoi b.

Teorema 3.4.1. Presupunem ca Q(t), t ∈ [0, T ], P0 sunt matrici simet-rice si pozitive, iar R(t) este uniform pozitiv definita, adica exista α > 0astfel ıncat:

(Rx, x) ≥ α‖x‖2, x ∈ IR.Atunci:

51

i) Ecuatia Riccati (3.28) are solutie unica P pe [0, T ], pozitiva si sime-trica.

ii) Problema liniar patratica (3.23), (3.24) admite o unica solutie.

Demonstratie Fie S(t) := P (T − t). Avem de demonstrat existentasolutiei pe intervalul [0, T ] pentru problema

(3.33)

⎧⎨⎩ S′ = SA+A∗S − SBR−1B∗S +Q, t ∈ [0, T ]

S(0) = P0

Teorema de existenta locala pentru problema Cauchy ne spune ca exista ounica solutie S, definita pe un interval maximal [0, T1). Intrucat S∗ este deasemenea solutie, rezulta ca S = S∗. Inlcuim P0 cu P0 + εI, Q cu Q + εIsi aratam ca solutia problemei ramane pozitiv definita si are ca interval deexistenta [0, T ]. Facand pe ε → 0, obtinem existenta globala a solutiei sipozitivitatea acesteia.

Presupunem asadar ca P0 si Q(t) sunt pozitiv definite. Solutia S estelocal pozitiv definita. Pentru x ∈ IRn are loc

d

dt(S(t)x, x) = 2(Ax,Sx) − (R−1B∗Sx,B∗Sx) + (Qx, x).

Daca am presupune ca pentru un t > 0 si un x ∈ IRn are loc (S(t)x, x) = 0 siacest t este primul pentru care S nu mai ramane pozitiv definita, am obtineca

d

dt(S(t)x, x)t=t = (Qx, x) > 0.

Aceasta contrazice faptul ca, pentru t < t, S(t) este pozitiv definita. Decisolutia ramane pozitiv definita pe ıntreg intervalul de existenta.

Pentru 0 ≤ t ≤ T ′, cu 0 < T ′ < T1, functia ψ(t, x) = 12(S(T ′−t)x, x) este

functia valoare pentru problema de control optimal (3.23),(3.24) (v. (3.18))pe intervalul [t, T ′], cu f = 0. Rezulta ca ψ se poate majora cu valoareafunctionalei calculata pe solutia corespunzatoare lui u = 0 si care verificay(t) = x; aceasta solutie este y(s) = e(s−t)Ax si deci

(S(T ′ − t)x, x) ≤

≤∫ T ′

t(Qe(s−t)Ax, e(s−t)Ax)ds + (P0e

(T ′−t)Ax, e(T′−t)Ax) ≤ C(T )‖x‖2.

Obtinem asadar ca S(t) este marginita ın norma pe intervalul [0, T1) si deciT1 = T . In consecinta P (t), solutia ecuatiei diferentiale Riccati (3.28) estepozitiva si definita pe ıntreg intervalul ınchis [0, T ].

Existenta solutiei problemei de control liniar patratic rezulta din teorema3.3.1 deoarece exista o solutie C1 a ecuatiei Hamilton-Jacobi-Bellman, ex-primata cu ajutorul solutiei ecuatiei diferentiale Riccati. Unicitatea solutieirezulta de asemenea din reprezentarea controlului optimal ın functie destarea adjuncta p (3.25), care la randul sau se exprima ın mod unic cu

52

ajutorul solutiei ecuatiei Riccati (folosind evident si solutiile unice ale pro-blemelor (3.29), (3.32)).

De altfel, se poate observa ca problema de control optimal considerataeste o problema de optimizare pentru o functionala strict convexa si coerciva(R este uniform pozitiv definita si Q este pozitiva) pe o multime convexa siınchisa.

3.5. Stabilizarea sistemelor diferentiale liniare

Consideram sistemul liniar controlat

(3.34) y′ = Ay +Bu

unde A ∈ Mn(IR), B ∈ Mn×m(IR). Se pune problema de a determina uncontrol ın forma feedback u = Ky,K ∈ Mm×n(IR) astfel ıncat sistemulliniar obtinut

(3.35) y′ = (A+BK)y

sa fie asimptotic stabil . Astfel, vom spune ca sistemul (3.34) este stabilizabil(sau perechea(A,B) este stabilizabila) daca exista un feedback K astfel ıncattoate solutiile sistemului (3.35) tind la 0 pentru t→ +∞, altfel spus, existaK astfel ıncat σ(A + BK) ⊂ (−∞, 0) unde σ(A) reprezinta spectrul, saumultimea autovalorilor matricii A..

Vom spune ca sistemul (3.34) este complet stabilizabil (sau perechea(A,B)este complet stabilizabila) daca pentru orice ω ∈ IR exista un feedback Kastfel ıncat σ(A+BK) ⊂ (−∞, ω).

Teorema 3.5.1. Urmatoarele afirmatii sunt echivalente:i) Perechea (A,B) este complet stabilizabila.ii) Perechea (A,B) este controlabila.iii) Pentru orice polinom de grad n, p(λ) = λn + α1λ

n−1 + . . . + αn,exista un feddback K astfel ıncat polinomul caracteristic al lui A + BK safie pA+BK = p

Demonstratie i)⇒ ii). Presupunem prin reducere la absurd ca perechea(A,B) nu ar fi controlabila. . Din teorema de descompunere a lui Kalman3.1.5, rezulta ca (A,B) ∼ (A1, B1) cu A21 = 0, B21 = 0. Consideram acumun feedback K = (K1,K2), K1 ∈ Mm×l,K2 ∈ Mm×(n−l). Polinomul carac-teristic al lui A1 +B1K este pA1+B1K = pA11+B11K1 ·pA22 . Deci ıntotdeauna,pentru orice K, pA22 |pA1+B1K ceea ce contrazice i).

ii) ⇒ iii). Pentru ınceput consideram cazul m = 1. Deoarece sistemuleste controlabil, el este echivalent cu ecuatia de ordinul n controlata

z(n) + a1z(n−1) + · · ·+ anz = u

si feedbackul care realizeaza cerintele punctului iii) este u = (a1−α1)z(n−1)+· · ·+ (an − αn)z.

Pentru a demonstra iii) ın cazul general este suficient sa aratam ca existav ∈ IRm (vector coloana) si L ∈ Mm×n, astfel ıncat perechea (A +BL,Bv)

53

este controlabila. In acest fel se reduce demonstratia la cazul m = 1 si feed-backul cautat este L+ vK, unde K ∈ M1×n este feedbackul corespunzatorcazului m = 1 si perechii (A+BL,Bv).

Alegem asadar v ∈ IRm astfel ıncat Bv = 0. Construim o baza ın IRn

ın felul urmator: f1 = Bv, fi+1 = Afi + Bui, pentru un ui ∈ IRm, i =1, . . . , n. Presupunem ca am construit f1, . . . , fl si cautam ul ∈ IRm astfelıncat fl+1 = Afl + Bul sa nu apartina spatiului Xl = span f1, . . . , fl.Daca aceasta nu este posibil, ınseamna ca Afl + Bu ∈ Xl,∀u ∈ IRm, deciAfl ∈ Xl si Bu ∈ Xl,∀u ∈ IRm. Rezulta imediat ca Im B ⊂ Xl si Xl estesubspatiu invariant al lui A. Deci ET ⊂ Xl si deci Xl = IRn si l = n (dincontrolabilitate).

iii)⇒ i). Implicatia aceasta este imediata.

Stabilizarea feedback a sistemului liniar (3.34) este intim legata de pro-blema de minimizare

(3.36) inf J(yu, u), J(y, u) =∫ ∞

0(Qy, y) + (Ru, u)dt

unde yu verifica (3.34) cu yu(0) = x, cu Q,R matrici pozitiv definite fixate.Aceasta problema de control cu orizont infinit ne va conduce la o ecuatieRiccati algebrica :

(3.37) SA+A∗S − SBR−1B∗S +Q = 0

unde necunoscuta este S ∈Mn(IR) pe care o cautam ın multimea matricilorsimetrice pozitive. Vom vedea ın cele ce urmeaza ca stabilizabilitatea feed-back a sistemului (3.34) este echivalenta cu existenta unei astfel de solutiipentru ecuatia (3.37).

Lema 3.5.1. Fie S1, S2 doua solutii simetrice ale ecuatiei diferentialeRiccati 3.33) cu S1(0) ≤ S2(0) (i.e. S2(0) − S1(0) este pozitiva) atunciS1(t) ≤ S2(t) pentru t > 0.

Demonstratie Fie S = S1 − S2. Acesta verifica ecuatia

S′ = SA+A∗S − S2BR−1B∗S + S1BR

−1B∗S − SBR−1B∗S

Acelasi argument din demonstratia teoremei 3.4.1 folosit pentru a arata pozi-tivitatea lui P functioneaza si aici. Se face mai ıntai demonstratia ınlocuindpe S2(0) cu S2(0) + εI, astfel ıncat S(0) este pozitiv definita, iar pe S2 ılconsideram solutia ecuatiei perturbate cu εI (Q → Q + εI) . In aceastasituatie S verifica

S′ = SA+A∗S − S2BR−1B∗S + S1BR

−1B∗S − SBR−1B∗S + εI

Daca t este primul punct pentru care S nu mai este pozitiv definita, rezultaca, pentru x vector propriu al lui S(t) corespunzator valorii proprii 0, areloc

d

dt(S(t)x, x)|t=t = ‖x‖2 > 0

54

ceea ce conduce la o contradictie. Rezultatul final se obtine trecand la limitapentru ε→ 0.

Legatura dintre stabilizare si existenta solutiilor pentru ecuatia Riccatialgebrica este data de urmatoarea teorema:

Teorema 3.5.2. i) Daca perechea (A,B) este stabilizabila, atunci ecuatiaRiccati algebrica (3.37) are cel putin o solutie simetrica si pozitiva

ii)Daca ecuatia Riccati algebrica (3.37) are o solutie S simetrica si poz-itiva, atunci aceasta are si o solutie simetrica si pozitiva S, minimala (i.e.orice alta solutie simetrica si pozitiva S verifica S ≤ S). In plus controlulfeedback

(3.38) u∗(t) = −R−1B∗Sy(t)

este control optimal pentru problema (3.36), (3.34). Are loc

(3.39) J(yu∗, u∗) = (Sx, x)

Daca ın plus Q este pozitiv definita, atunci matricea A − BR−1B∗S estestabila, altfel spus feedbackul construit este stabilizant.

Demonstratie Fie S(t) solutia ecuatiei diferentiale Riccati (3.33) cu conditiainitiala S(0) = 0. Deoarece S(t) ≥ 0 pentru t ≥ 0, iar pentru δ > 0 S(·+ δ)este solutie care ın 0 ia valoarea S(δ), rezulta din lema 3.5.1 ca t → S(t)este crescatoare.

i) Sa presupunem ca perechea (A,B) este stabilizabila. Atunci existaun feedback K astfel ıncat A+ BK este matrice stabila. Se poate observacu usurinta ca (S(t)x, x) este functia valoare pentru problema de controloptimal de tip Bolza pe intervalul (0, t) cu functionala de cost

J t(y, u) =∫ t

0(Qy, y) + (Ru, u)ds.

Deci daca alegem y = exp(t(A+BK))x si u(t) = Ky(t) obtinem

(S(t)x, x) ≤ J t(y, u) ≤ J(y, u) < +∞.(S(t)x, x) este o funtie monoton crescatoare si marginita deci convergenta.Limita sa defineste o forma patratica pe IRn a carei matrice o notam totcu S = limt→+∞ S(t). De asemenea, rezulta ca exista l = limt→+∞ S′(t) deunde l = 0n (daca o functie scalara ımpreuna cu derivata sa au limite finitela +∞ atunci limita derivatei este 0; aplicam acest rezultat componentelormatricii S).

ii) Fie acum S o solutie simetrica si pozitiva a ecuatiei (3.37). Lema3.5.1 ne spune ca S(t) ≤ S deci exista S = limt→+∞ S(t) solutie pentru(3.37) care satisface S ≤ S. Rezulta ca S este solutie minimala. Pe dealta parte, S este solutie si a ecuatiei diferentiale Riccati, deci feedbackulfurnizat de aceasta prin (3.38) satisface

(Sx, x) =∫ T

0(Qy∗, y∗) + (Ru, u∗)ds + (Sy∗(T ), y∗(T ))

55

de unde ∫ T

0(Qy∗, y∗) + (Ru, u∗)ds ≤ (Sx, x)

si deci J(y∗, u∗) ≤ (Sx, x). Pe de alta parte

(S(T )x, x) ≤∫ T

0(Qy∗, y∗) + (Ru, u∗)ds ≤ J(y∗, u∗),

de unde rezulta si inegalitatea inversa si, ın consecinta, egalitatea (3.39).Fie ecuatia

y′ = Ay −BR−1B∗Sy

pe care o ınmultim scalar cu Sy. Obtinem, facand uz de ecuatia Riccatialgebrica, ca

12d

dt(Sy(t), y(t)) = −1

2(R−1B∗Sy(t), B∗Sy)−(Qy(t), y(t)) ≤ −(Qy(t), y(t)).

Deoarece Q este matrice pozitiv definita, rezulta ca S este pozitiv definitadeci√

(Qy, y),√

(Sy, y) definesc norme echivalente pe IRn. Rezulta ca existaC, δ > 0 astfel ıncat |y(t)| ≤ Ce−δt|y0|. Asadar matricea A − BR−1S estestabila.

3.6. Problema de timp optimal pentru sisteme liniare

Consideram U un poliedru din IRm:

U = conv(a1, . . . , ad)

iar aj , j = 1, . . . , d este o multime minimala ce genereaza pe U . aj suntvarfurile poliedrului. Consideram U = u : [0,∞) → U : u masurabila,multimea controalelor admisibile pentru problema liniara

(3.40) y′ = Ay +Bu, y(0) = y0,

undeA,B sunt matrici constante. Ne propunem ın acest paragraf sa studiemproblema de timp optimal. Dat y1 ∈ A(y) sa se determine u∗ ∈ U carerealizeza infimul

(3.41) inft : ∃u ∈ U , yu(t) = y1,

unde am notat, ca de obicei, cu yu solutia lui (3.40) pentru un u ∈ U dat.Timpul optimal ıl vom nota cu t∗ iar controlul corespunzator cu u∗.

Problema de timp optimal este o problema de control optimal cu la-grangean L ≡ 1 si timp final liber. Vom da o caracterizare a controluluioptimal ın problema de timp optimal. Facem apel la principiul de maximpentru probema de timp optimal si pe care ıl vom demonstra ın §6.3. Astfel,hamiltonianul sistemului este

Hu(t, y, p) = (p,Ay +Bu) + ν.

56

cu ν ∈ −1, 0. Sistemul hamiltonian este

(3.42)

⎧⎨⎩ y′ = Ay +Bup′ = −A∗py(0) = y0, y(t∗) = y1.

Ca si ın cazul timpului final fixat pentru problema Bolza, se obtine ca dacau∗ este control optimal, atunci exista o solutie (y∗, p∗), cu (ν, p∗) = (0, 0)astfel ıncat are loc proprietatea de maxim (3.12). In plus fata de cazultimpului final liber, dupa cum se va demonstra ın §6.3, are loc

Hmax ≡ 0.

Astfel, notand cuhu(y, p) = (p,Ay +Bu),

obtinem ca exista un arc dual p∗ netrivial astfel ıncat are loc hu∗(y∗, p∗) =

maxu∈U hu(y∗, p∗). Faptul ca p∗ este netrivial rezulta din

Hmax(y∗, p∗) = hu∗(y∗, p∗) + ν ≡ 0

si (ν, p∗) = (0, 0).

Teorema 3.6.1. i) Problema de timp optimal (3.40),(3.41) are cel putino solutie.

ii) Daca ın plus, notand cu lij = aj − ai, are loc pentru ∀i, j

(3.43) rang [A|Blij ] = n,

atunci solutia este unica.iii) In ipotezele de mai sus rezulta ca exista o multime finita de puncte

T ⊂ [0, t∗] cu proprietatea ca, pentru t ∈ [0, t∗] \ T , u(t) ∈ a1, . . . , ad si ueste local constanta.

Demonstratie Formula variatiei constantelor ne da

yu(t) = etAy0 +∫ t

0e(t−s)ABu(s)ds.

Dearece u ia valori ıntr-o multime marginita U , rezulta ca pentru unδ > 0 si 0 < s < δ, ‖e(t−s)ABu(s)‖ ≤ C(δ). Deci pentru 0 < t < δ:

‖yu(t)− y0‖ ≤ ‖etA − I‖‖y0‖+ C(δ)t

Rezulta ca pentru t suficient de mic ‖yu(t) − y0‖ < ‖y1 − y0‖ deci t∗ > 0.Consideram sirurile tn, un, tn → t∗ yun(tn) = y1. Deoarece U este marginitarezulta ca un formeaza un sir marginit ın L2(0, t∗, IRm) si un u∗ slab.Rezulta ca ∫ t∗

0e(tn−s)ABu(s)ds→

∫ t∗

0e(t

∗−s)ABu∗(s)ds,

deci u∗ este control optimal.

57

Demonstram acum unicitatea controlului optimal. Presupunem ca arexista doua controale optimale u∗, v∗. Din formula variatiei constantelordeducem:

y1 = et∗Ay0 +

∫ t∗

0e(t

∗−s)ABu∗(s)ds = et∗Ay0 +

∫ t∗

0e(t

∗−s)ABv∗(s)ds,

de unde

(3.44)∫ t∗

0e−sABu∗(s)ds =

∫ t∗

0e−sABv∗(s)ds.

Fie p∗ starea duala corespunzatoare controlului optimal u∗, p∗(t) =e−tA∗

ξ cu ξ = 0. Maximul

maxu∈U

(p∗(t), Ay∗(t) +Bu)

se atinge macar ın unul dintre varfurile ai. Inmultim scalar (3.44) cu ξ siobtinem ca: ∫ t∗

0(p∗(s), Bu∗(s))ds =

∫ t∗

0(p∗(s), Bv∗(s))ds.

Conditia de maxim ne spune ca

(3.45) (p∗(s), Bu∗(s)) = (p∗(s), Bv∗(s)), a.p.t. s ∈ [0, t∗].

Aratam ca, pentru t ∈ [0, t∗] cu exceptia unui numar finit de punctetj : j = 1, . . . ,m, acest maxim este atins ıntr-un singur element din Ucare este varf al poliedrului (prima parte din iii)). Aceste puncte le vomnumi puncte de comutare. Presupunem ca ar exista o infinitate de punctetk ∈ [0, t∗] pentru care maximul ar fi atins ın mai mult de un varf. Cumnumarul varfurilor este finit, exita doua varfuri ai, aj ın care maximul seatinge pe un subsir pe care ıl notam tot cu tk. Deci

(p(tk), Bai) = (p(tk), Baj),

de unde(p(tk), Blij) = (e−tkA∗

ξ,Blij) = 0.Cum funtia t → (p(t), Blij) este analitica si are o infinitate de zerouri ın[t0, t∗], rezulta ca (p(t), Blij) ≡ 0. Derivand de n− 1 ori ın t = 0 obtinem

(ξ,Blij) = (ξ,ABlij) = . . . = (ξ,An−1Blij) = 0

de unde, tinand cont de conditia 3.43, rezulta ξ = 0, contradictie. Obtinemasadar din (3.45) ca u∗ = v∗ aproape peste tot.

Din punctul iii) a mai ramas de demonstrat ca pe [0, t∗] \ T , u estelocal constanta. Aceasta rezulta imediat din continuitatea functiei t →(e−tA∗

ξ,Bu).Acest rezultat se mai ıntalneste ın literatura sub numele de teorema de

bang-bang .

58

CAPITOLUL 4

Reprezentarea ecuatiilor diferentiale

pe varietati diferentiabile

4.1. Ecuatii diferentiale pe varietati diferentiabile

In cele ce urmeaza M este o varietate diferentiabila n-dimensionala siTM = ∪q∈MTqM este fibratul tangent.

Consideram un camp vectorial neautonom f t pe M , adica f t(q) ∈ TqMpentru orice q ∈M, t ∈ IR.

Consideram problema Cauchy pentru ecuatia diferentiala neautonoma:

(4.1)q = f t(q) := f(t, q)q(0) = q0.

Fie M = Ω ⊂ IRn submultime deschisa; are loc urmatoarea teorema alui Caratheodory (v. [16], teorema 1.1, cap.2):

Teorema 4.1.1. Daca f = f(t, y) este masurabila ın t pentru orice ysi continua ın y a.p.t. t si exista o functie m0 ∈ L1(IR) astfel ıncat ıntr-ovecinatate a lui (0, y0)

|f(t, y)| ≤ m0(t),atunci problema

(4.2)y′ = f(t, y)y(0) = y0

are o solutie locala unica care este o functie absolut continua, verifica ecuatiaa.p.t si conditia initiala.

Daca pentru t fixat , fi(t, ·) este C1 si pentru orice (t, y) exista o functiem1 ∈ L1 si o vecinatate V a lui (t, y) astfel ıncat pentru orice (t, y) ∈ V∣∣∣∣∂fi

∂yj(t, y)

∣∣∣∣ ≤ m1(t),

atunci solutia este unica. In plus solutia este C1 ın raport cu datele initiale.

In cazul ın care M este varietate diferentiabila, pentru a rezolva ecuatia(4.1), o reprezentam ın coordonate locale. Fie ϕ : V(q0) ⊂ M → V(y0) ⊂IRn, o harta locala. In aceste coordonate campul vectorial f t se reprezintaca:

(ϕ∗f t)(x) =n∑

i=1

fi(t, x)ei = f(t, y).

59

unde ei sunt vectorii bazei canonice, iar ϕ∗ este aplicatia liniara tangenta saudiferentiala lui ϕ. A rezolva (local) problema Cauchy (4.1) este echivalentcu a rezolva ın harta locala urmatoarea problema Cauchy:

(4.3)y′ = f(t, y)y(0) = y0.

Existenta si unicitatea solutiei locale pentru (4.3) este asigurata daca fverifica ipotezele teoremei 4.1.1; acestea sunt ipoteze asupra lui f ıntrucat nudepinde de alegerea hartii locale. In aceste ipoteze teorema lui Caratheodoryne asigura ca problema (4.3) are o solutie locala y(t, y0) care este absolutcontinua ın raport cu t, C1 ın raport cu datele initiale y0 si satisface ecuatiaa.p.t.. Solutia problemei (4.1) este q(t, q0) = ϕ−1(y(t, y0)) si aceasta nudepinde de harta locala aleasa.

Solutia problemei Cauchy (4.1) este definita pe un interval maximal.Vom presupune ın cele ce urmeaza ca intervalul maximal de definitie este IRpentru toate datele initiale. Un camp vectorial ce determina solutii globalepentru problema Cauchy asociata se numeste camp vectorial complet. Pe ovarietate compacta orice camp vectorial neted este complet.

Notam cu F t fluxul definit de ecuatia (4.1):

F t(q0) = q(t, q0).

Atunci F t ∈ Diff (M), multimea difeomorfismelor varietatii M , si ecuatia(4.1) se rescrie

(4.4)

⎧⎪⎨⎪⎩d

dtF t(q) = f t F t(q), q ∈M

F 0 = Id.

unde Id este aplicatia identitate pe M .Asadar, ın cele ce urmeaza, presupunem satisfacute urmatoarele ipoteze:• M este o varietate diferentiala de clasa C∞, iar Diff (M) desem-

neaza multimea C∞-difeomorfismelor lui M .• Campul vectorial neautonom f t este complet si ın orice harta localaf(t, y) este masurabila ın raport cu t pentru x fixat si C∞ ın raportcu x pentru a.p.t. t.• Exista functiile local integrabile mk(t) astfel ıncat local

|Dkxf(t, y)| ≤ mk(t).

Aceste ipoteze ne asigura ca problema Cauchy (4.1) are solutie unica cedepinde C∞ de datele initiale.

60

4.2. Reprezentarea exponentiala a fluxurilor

Calculul operatorial, introdus de A. Agrachev si R. Gamkrelidze (v.[1],[26], [2]) si numit reprezentare exponentiala a fluxurilor sau calcul crono-logic, este un instrument deosebit de util care permite ınlocuirea obiectelorneliniare (varietati diferentiabile, vectori tangenti, fluxuri, difeomorfisme)cu obiecte liniare si anume functionale sau operatori pe algebra C∞(M) afunctiilor reale, infinit diferentiabile definite pe M .

Punctele se reprezinta ca morfisme de algebre de la C∞(M) ın IR. Dacaq ∈M , atunci acesta defineste un morfism de algebre q : C∞(M)→ IR,

q(α) = α(q).

Se poate arata ca pentru orice morfism de algebre ψ : C∞(M)→ IR, existaun unic q ∈M astfel ıncat ψ = q (v. [2]).

Difeomorfismele varietatii M se reprezinta ca automorfisme ale algebreiC∞(M). Daca F ∈ Diff (M), definim F : C∞(M)→ C∞(M) prin

F (α) = α F.In general, daca F : M → N este o aplicatie neteda ıntre doua varietati,atunci ea defineste un morfism de algebre F : C∞(N) → C∞(M) prinF (β) = β F unde β ∈ C∞(N). Se observa ca daca F,G ∈ Diff (M) atunciF G = G F .

Vectori tangenti. Fie f ∈ TqM . Atunci f poate fi privit fie ca vectortangent ın q al unei curbe ce tece prin q, fie ca derivata directionala, sauderivata Lie, a functiilor ın punctul q si ın directia f . Asadar, din primulpunct de vedere se considera o curba neteda q(t), q(0) = q, q(0) = f . Al

doilea punct de vedere este de a considera derivata Lie Lfα =d

dtα(q(t)) |t=0.

Se defineste asadar f : C∞(M)→ IR,

f(α) :=d

dt[y(t)(α)] |t=0= Lfα.

f este functionala liniara pe C∞(M) si satisface regula lui Leibniz

(4.5) f(αβ) = α(y)f(β) + f(α)β(y).

Orice functionala liniara pe C∞(M) ce satisface (4.5) corespunde unui unicvector tangent.

Campuri vectoriale. Fie Vec (M) multimea campurior vectoriale netedepeM si fie f ∈ Vec (M). Atunci f defineste un operator liniar f : C∞(M)→C∞(M),

f(α)(y) = f(y)(α).Acest operator satisface regula lui Leibniz:

(4.6) f(αβ) = αf(β) + f(α)β.

61

Orice operator liniar pe C∞(M) ce satisface (4.6) se numeste derivare sicorespunde unui unic camp vectorial.

Comportarea vectorilor tangenti si a campurilor vectoriale sub actiuneadifeomorfismelor.

Fie F ∈ Diff (M) si g ∈ TqM astfel ıncat g =d

dtq(t) |t=0. Atunci se defineste

F∗g ∈ TF (q)M prin F∗g =d

dtF (q(t)) |t=0. Astfel, daca α ∈ C∞(M), atunci

F∗g(α) =d

dtF (q(t))(α) |t=0=

d

dtα(F (q(t))) |t=0= g(αF ) = g F (α). Deci,

(4.7) F∗g = g F .

In acelasi mod, daca g ∈ Vec (M), ıntrucat g(q) = qg rezulta ca F∗g(F (q)) =F (q) F∗g = q F F∗g. Pe de alta parte, F∗g(F (q)) = F∗(g(q)) = q g F .Cum q este arbitrar, F F∗g = g F deci

(4.8) F∗g = F−1 g F = Ad F−1g

Observatia 4.2.1. Notatia Ad provine din teoria grupurilor Lie undedesemneaza reprezentarea adjuncta a grupului ın spatiul operatorilor liniaripe algebra Lie asociata. In cazul de fata, rolul grupului Lie este jucatde grupul difeomorfismelor varietatii, iar algebra Lie asociata este algebracampurilor vectoriale. Prin reprezentarea exponentiala descrisa mai sus seobtine grupul automofismelor lui C∞(M), iar algebra Lie asociata este al-gebra derivarilor lui C∞(M) (v. [3], [31]).

Reprezentarea exponentiala a fluxurilor.

Ecuatia (4.1) devine, prin reprezentarea exponentiala:

(4.9)

⎧⎪⎨⎪⎩d

dtq(t) = q(t) f t

q(0) = q0,

deci fluxul definit de ecuatie satisface:

(4.10)

⎧⎪⎨⎪⎩d

dtF t = F t f t

F 0 = Id.

Fluxul F t se numeste exponentiala cronologica la dreapta si, prin analogiecu cazul liniar, se noteaza

(4.11) F t = −−→exp∫ t

0f sds

62

Pentru a simplifica notatiile, daca nu exista pericolul de a face o confuzie,vom omite semnul care desemneaza reprezentarea obiectului respectiv.

Mentionam aici ca ecuatiile (4.9), (4.10) nu sunt deocamdata justificateriguros ıntrucat nu am definit ınca o topologie ın spatiile corespunzatoarede functionale sau operatori ın C∞(M). Acest lucru ıl facem ın cele ceurmeaza.

Topologia.

Consideram pe C∞(M) topologia convergentei uniforme pe compacte a tu-turor derivatelor. Mai precis, daca M = Ω ⊂ IRn, pentru α ∈ C∞(M),K ⊂⊂M si k = (k1, . . . , kn), ki ≥ 0, definim seminormele:

‖α‖s,K = sup|Dkα(q)|; |k| = k1 + . . .+ kn ≤ s, y ∈ K

Aceasta familie de seminorme defineste o topologie pe C∞(M) care devineun spatiu Frechet (spatiu liniar topologic local convex cu o topologie metricacompleta data de o metrica invarianta la translatii). In aceasta topologieαm → α daca si numai daca ‖αm − α‖s,K → 0, ∀s ≥ 0 si K ⊂⊂M .

Pentru o varietate diferentiabila generala M , alegem o acoperire localfinita cu harti locale (Vi, ϕi)i∈I , ϕi : V i → Oi ⊂ IRn difeomorfisme si fieαii∈I o partitie a unitatii subordonata acestei acoperiri. Definim familiade seminorme

‖α‖s,K = supDk[(αiα) ϕ−1](q)| |k| ≤ s, ϕ−1(q) ∈ K, i ∈ I

Aceasta familie de seminorme depinde de alegerea atlasului de harti locale,dar topologia definita pe C∞(M) este independenta de aceasta alegere.

Odata definita topologia, consideram pe C∞(M) spatiul operatorilorliniari continui L(C∞(M)). Spatiile Diff (M) si Vec (M) devin prin in-termediul reprezentarii cronologice subspatii liniare. Intr-adevar, pentruf ∈ Vec (M) si F ∈ Diff (M) are loc

‖fα‖s,K ≤ C1‖α‖s+1,K , ‖F α‖s,K ≤ C2‖α‖s,K

unde constantele C1 = C1(s,K, f), C2 = C2(s,K,F ). Se definesc astfelfamiliile de seminorme pe Vec (M) si respectiv pe Diff (M):

‖f‖s,K = sup‖fα‖s+1,K |‖α‖s,K = 1,

‖F‖s,K = sup‖F α‖s,K |‖α‖s,K = 1,

care induc pe aceste spatii topologii local convexe.Pe aceste spatii vom considera, de asemenea, si topologiile slabe induse

de C∞(M): Fn F daca si numai daca Fnα→ Fα, ∀α ∈ C∞(M).

63

Proprietati de diferentiabilitate si integrabilitate pentru familii de functiisau operatori.

Intai vom caracteriza aceste proprietati pentru spatiul C∞(M) care este unspatiu Frechet.

In general, fie X un spatiu Frechet a carui topologie este definita de ofamilie numarabila de seminorme pkk∈N. Metrica pe X este data de

d(x, y) =∑k∈N

12k

pk(x− y)1 + pk(x− y)

Fie h : J ⊂ IR → X. Functia h se numeste diferentiabila ın t0 daca existaın X limita

limt→t0

h(t)− h(t0)t− t0

.

Functia h se numeste Lipschitz continua daca, pentru orice pk, pk h esteLipschitz continua. Diferentiabilitatea si continuitatea Lipschitz pot fi defi-nite folosind structura metrica a lui X.

Funtia h se numeste marginita daca, pentru orice pk, pkh este marginita.Pentru a defini masurabilitatea si integrabilitatea adaptam calea uti-

lizata ın cazul integralei Bochner (v. [36]). O functie h se numeste functieın scara daca se poate reprezenta sub forma

h =∑n∈N

xnχJn

unde χJn este functia caracteristica a unei multimi masurabile Jn ⊂ J . Oastfel de reprezentare se numeste σ-reprezentare pentru h si nu este unica.Spunem ca functia h este tare masurabila daca h este limita a.p.t. a unuisir de functii ın scara. Functia h se numeste slab masurabila daca x∗ heste masurabila pentru orice x∗ ∈ X∗. Se poate demonstra ca daca X esteseparabil cele doua notiuni de masurabilitate coincid (v. teorema lui Pettis,[36], ın cazul ın care X este spatiu Banach). Daca h este functie ın scara,atunci h se numeste integrabila daca∑

n

µ(Jn)pk(xn) ≤ ∞, ∀pk.

Integrala lui h se defineste ca fiind∫Jh(t)dt =

∑n

µ(Jn)xn

si se poate cu usurinta observa ca definitia este independenta de ordinea desumare si de σ-reprezentarea lui h.

Daca h este o functie masurabila, spunem ca ea este integrabila dacaexista un sir de de functii ın scara, integrabile, hnn∈N astfel ıncat

limn→+∞

∫Jpk(h(t) − hn(t))dt = 0, ∀k.

64

In acest caz se poate arata ca exista

limn→+∞

∫Jhn(t)dt

si aceasta este independenta de sirul hnn∈N cu proprietatile enuntate.Limita se noteaza cu ∫

Jh(t)dt

si se numeste integrala lui h pe J .Data o familie P t, t ∈ J ⊂ IR de operatori liniari si continui sau de

functionale liniare continue pe C∞(M), notiunile definite mai sus, de con-tinuitate, diferentiabilitate, marginire, masurabilitate, integrabilitate, vor ficonsiderate ın sens slab. Mai precis, functia t → P t are una din acesteproprietati daca P t α are proprietatea respectiva ∀α ∈ C∞(M).

In acest moment putem da un sens ecuatiei operatoriale (4.10) si se poate cuusurinta demonstra ca are solutie unica. Este de asemenea valabila regulalui Leibniz :

d

dtP t Qt|t=t0 =

d

dtP t|t=t0 Qt0 + P t0 d

dtQt|t=t0 ,

pentru doua functii t→ P t, t→ Qt diferentiabile ın t0.Consideram acum fluxul F t definit de (4.1) si fie Gt = (F t)−1. Daca

diferentiem identitatea F t Gt = I obtinem

F t f t Gt + F t ddtGt = 0

deci

(4.12)

⎧⎪⎨⎪⎩d

dtGt = −f t Gt

G0 = Id

Se defineste ın acest fel exponentiala cronologica la stanga :

Gt =←−exp∫ t

0−f tdt.

Extensii si alte proprietati.

Am vazut ca F∗g = Ad F−1g pentru F ∈ Diff (M), g ∈ Vec (M).

Calculam acum derivatad

dt|t=0Ad (F t) pentru un flux F t pe M astfel ıncat⎧⎪⎨⎪⎩d

dtF t|t=0 = f ∈ Vec M

F 0 = Id

.

Are locd

dt|t=0(Ad F t)g = f g − g f = [f, g] =: (ad f)g.

65

In cazul particular

F t = −−→exp∫ t

0f sds

obtinem: ⎧⎨⎩d

dt(Ad F t)g = (Ad F t)ad f tg

Ad F 0 = Id,

deci putem scrie, formal:

Ad (−−→exp∫ t

0fsds) = −−→exp (

∫ t

0ad fsds).

Fie acum F ∈ Diff (M) si gt un camp vectorial neautonom. Atunci

(4.13) F −−→exp∫ t

0gsds F−1 = −−→exp

∫ t

0(Ad Fgt)

Intr-adevar, cele doua parti ale egalitatii verifica aceeasi problema Cauchypentru ecuatia operatoriala⎧⎪⎨⎪⎩

d

dtqt = qt (Ad Fgt)

q0 = Id

deci, din unicitatea solutiei, coincid.

Consideram din nouGt = (F t)−1 si diferentiem identitatea GtF t = Id .

Obtinem cad

dtGt F t = −Gt F t f t si deci

d

dtGt = −Gt (Ad F t)f t.

Aceasta ne da legatura ıntre exponentialele cronologice la stanga si la dreapta:

(4.14) ←−exp∫ t

0f sds = −→exp

∫ t

0(Ad F s)f sds

Asa cum s-a vazut, daca F ∈ Diff (M), atunci acesta defineste un au-tomorfism al algebrei C∞(M) : Fα = α F = F ∗α. Aceasta sugereazafaptul ca F poate fi extins ca automorfism de algebre la algebra graduataΛ(M) =

⊕Λk(M) a formelor diferentiale pe M . Daca ω ∈ Λk(M) atunci

definimF ω := F ∗ω.

Este binecunoscut faptul ca F ∗ comuta cu diferentiala exterioara:

F ∗ d = d F ∗

si pentru ωi ∈ Λki(M),

F ∗(ω1 ∧ ω2) = F ∗(ω1) ∧ F ∗(ω2).

66

Deci F este automorfism al algebrei Λ(M). Consideram acum un campvectorial:

f =d

dtF t|t=0, F 0 = Id

Actiunea pe Λk(M) este derivata Lie a formelor diferentiale:

d

dtF tω|t=0 =

d

dt(F t)∗ω|t=0 = Lfω.

Putem deci ıntelege actiunea unui camp vectorial f ∈ Vec (M) drept derivataLie a formelor diferentiale:

f = Lf .

Exponentiala cronologica la dreapta se scrie

F t = −−→exp∫ t

0Lfsds.

Mentionam doua proprietati fundamentale ale derivatei Lie:Deoarece F t d = d F t, are loc

f d = d f ( echivalent Lf d = d Lf ).

Notam cu if produsul interior al unei forme diferentiale ω cu un campvectorial f : ifω(f1, . . . , fk) = ω(f, f1, . . . , fk), pentru ω ∈ Λk+1(M), fi ∈Vec M . Formula lui Cartan este :

(4.15) f = d if + if d.

Formula variatiei constantelor.

Consideram problema Cauchy pentru ecuatia diferentiala liniara ın IRn:y′ = Ay + b(t)y(0) = y0

Solutia ecuatiei omogene (b ≡ 0) este y(t) = etAy0. Pentru ecuatia neo-mogena se cauta solutia prin metoda variatiei constantelor . Aceasta constaın a cauta o solutie de forma y(t) = etAc(t) si se obtine astfel pentru c(t)ecuatia c′(t) = A(t)b(t) care se integreaza. Solutia sistemului liniar neo-mogen este data de formula variatiei constantelor:

(4.16) y(t) = eAty0 +∫ t

0eA(t−s)b(s)ds.

Consideram acum ecuatia diferentiala pe varietatea diferentiabila M

q = f t(q),

care genereaza fluxul F t = −−→exp∫ t

0f sds. Consideram de asemenea ecuatia

perturbataq = f t(q) + gt(q)

67

care genereaza fluxulHt = −−→exp∫ t

0(f s+gs)ds, ce depinde de perturbarea gt.

Dorim sa punem ın evidenta aceasta dependenta. In acest scop procedamca ın cazul liniar si cautam Ht de forma

Ht = Gt F t

unde fluxul Gt urmeaza sa fie determinat. Diferentiind aceasta egalitategasim

d

dtHt = Gt F t (f t + gt) =

=d

dtGt F t +Gt d

dtF t =

d

dtGt F t +Gt F t f t.

Astfel, ⎧⎪⎨⎪⎩d

dtGt = Gt F t f t (F t)−1 = Gt Ad F tgt

G0 = IdAm obtinut deci

Gt = −−→exp∫ t

0Ad F sgsds

si prima forma a formulei variatiei contantelor este

(4.17) Ht = −−→exp∫ t

0Ad F sgsds F t.

Obtinem de asemenea

Ht = F t Ad (F t)−1(−−→exp∫ t

0Ad F sgsds)

si din (4.13)

(4.18) Ht = F t −−→exp∫ t

0Ad [(F t)−1 F s]gsds = F t −−→exp

∫ t

0(F t

s)∗gsds

unde F ts = −−→exp

∫ t

sf τdτ .

Formula variatiei constantelor se poate astfel rescrie ıntr-o a doua forma

−−→exp∫ t

0f s + gsds = −−→exp

∫ t

0f sds −−→exp

∫ t

0

−−→exp∫ s

tad f τdτgsds.

In cazul ın care f, g sunt campuri vectoriale autonome, formula variatieiconstantelor capata forma (a se compara cu (4.16)):

et(f+g) = −−→exp∫ t

0Ad esfgds etf = etf −−→exp

∫ t

0Ad e(s−t)f gds.

68

Elemente de geometrie simplectica. Formalismul hamilotonian.

Definitia 4.2.1. O structura simplectica pe o varietate diferentiabilaN (ın mod necesar de dimensiune para) este o 2-forma diferentiala, ne-degenerata si ınchisa. O varietate diferentiabila ınzestrata cu o structurasimplectica se numeste varietate simplectica.

Fie M o varietate diferentiabila si T ∗M = ∪y∈MT∗q M fibratul cotangent.

Daca (q1, . . . , qn) sunt coordonate locale pe M atunci, daca p ∈ T ∗q M ,

p =n∑

i=1

pidqi, (p1, . . . , pn, q

1, . . . , qn) definesc coordonatele locale canonice

pe T ∗M . Fie

(4.19) ω =n∑

i=1

dpi ∧ dqi.

Pentru a vedea ca definitia este independenta de alegerea coordonatelorlocale, fie π : T ∗M →M proiectia canonica si fie 1-forma canonica pe T ∗M :

ω1ξ(w) = ξ π∗(w), pentru w ∈ Tξ(T ∗M)

Daca w ∈ T (T ∗M), atunci w =n∑

i=1

ξi∂

∂pi+ vi ∂

∂qi. Intrucat π∗

(∂

∂pi

)= 0

si π∗(∂

∂qi

)=

∂qi, gasim ca

ω1ξ(w) =n∑

i=1

pivi

deci

ω1 =n∑

i=1

pidqi

siω = dω1.

Se vede acum cu usurinta ca ω este o structura simplectica pe T ∗M , caredevine ın acest fel o varietate simplectica.

Fie acum (N,ω) o varietate simplectica generala. Functiile din C∞(N)se numesc hamiltonieni. Fie H un hamiltonian pe N . Atunci exista un uniccamp vectorial pe N notat

−→H atfel ıncat

−i−→Hω = ω(·,−→H ) = dH.

−→H se numete campul vectorial hamiltonian al lui H iar fluxul corespunzatoreste fluxul hamiltonian. Ecuatia lui Hamilton sau sistemul hamiltonian este

(4.20)d

dtξ(t) =

−→H (ξ(t))

69

iar fluxul hamiltonian este

Ξt = −−→exp∫ t

0

−→Hds.

Paranteza Poisson a hamiltonienilor α, β se defineste prin

α, β = L−→α β = dβ(−→α ) = ω(−→α ,−→β ) = −β, αAceasta reprezinta derivata lui β de-a lungul fluxului hamiltonian definit deα.

Se poate cu usurinta demonstra ca (C∞(N), ·, ·) este o algebra Lie sica aplicatia H → −→H este morfism de algebre Lie de la C∞(M) la Vec (M).Biliniaritatea si antisimetria sunt imediate. Identitatea lui Jacobi, ca si fap-tul ca

−−−−→α, β = [−→α ,−→β ], se demonstreaza usor daca ın coordonate locale

ω are forma canonica (4.19). Argumentul este complet ıntrucat, din teo-rema lui Darboux (v. [3]), exista un atlas simplectic pe N astfel ıncat ω ıncoordonate locale se exprima ın forma canonica. In aceste coordonate

−→H =

n∑i=1

∂H

∂pi

∂qi− ∂H

∂qi

∂pi

si

α, β =n∑

i=1

∂α

∂pi

∂β

∂qi− ∂α

∂qi

∂β

∂pi.

Sistemul hamiltonian (4.20) se scrie ın forma (2.4).

Daca F ∈ Diff (N) pastreaza structura simplectica, i.e. F ∗ω = ω, atunciAd F

−→H =

−−→FH. Intr-adevar,

ω(·,−−→FH) = d(FH) = d(H F ) = H∗ F∗ = dH F∗ =

= ω(F∗·,−→H ) = F ∗ω(·, (F∗)−1−→H ) = ω(·,Ad F

−→H ).

Integralele prime ale sistemelor hamiltoniene autonome sunt functiilece comuta cu hamiltonianul. Intr-adevar, fie ecuatia (4.20). Atunci α ∈C∞(N) este integrala prima daca si numai daca et

−→Hα = const ceea ce este

echivalent, prin diferentiere, cu−→Hα = 0 sau H,α = 0.

Consideram din nou cazul varietatii simplectice T ∗M . Dat un campvectorial neautonom f t ∈ Vec (M), consideram hamiltonianul pe T ∗M :

(4.21) (f t)#(ξ) = (ξ, f t).

In coordonate simplectice canonice (pi, qi), daca f t =

n∑i=1

fi(t, q)∂

∂qi, atunci

(f t)#(ξ) =n∑

i=1

pifi(t, q). Folosind exprimarea ın coordonate locale se vede

70

cu usurinta ca pentru f, g ∈ Vec (M)

f#, g# = [f, g]#.

Pentru un camp vectorial neautonom f t, campul vectorial hamiltonian pe

T ∗M definit prin−−−→(f t)# se numeste liftul hamiltonian. Acesta satisface

π∗−−−→(f t)# = f t.

Stabilim ın continuare legatura ıntre fluxurile determinate de f t, respectiv

de−−−→(f t)#. Fie F t

τ = −−→exp∫ t

τf sds. Aunci (F t

τ )∗ ∈ Diff (T ∗M). Fie

gτ =d

dt|t=τ (F t

τ )∗

Propozitia 4.2.1. gt = −−−−→(f t)# si

(4.22) (F tτ )

∗ = −−→exp∫ τ

t

−−−→(f s)#ds

Demonstratie Intrucat F t+ετ = F t

τ F t+εt , urmeaza, prin diferentiere ın

raport cu ε ın 0, cad

dt(F t

τ )∗ = gt (F tτ )∗,

deci

(F tτ )∗ =←−−exp

∫ t

τgsds.

Deoareceπ (F t

τ )∗ = (F tτ )−1 π

rezulta ca

(4.23) π∗gt = −f t

Pe de alta parte, fluxul (F tτ )∗ pastreaza 1-forma ω1 si prin urmare forma

simplectica ω. Din formula lui Cartan (4.15) avem ca

0 = Lgtω1 = igtω + dω1(gt),

de undegt =

−−−−→ω1(gt).

Aceasta ınseamna ca campul vectorial gt este hamiltonian iar concluziapropozitiei urmeaza din (4.23).

71

CAPITOLUL 5

Controlabilitatea sistemelor diferentiale

5.1. Teorema orbitei si consecinte

Consideram o varietate diferentiabila M , o familie de campuri vectorialeF = fu|u ∈ U si sistemul controlat

(5.1) q = fu(q).

Multimea controalelor admisibile U este ın cele ce urmeaza multimeafunctiilor constante pe portiuni, cu valori ın U .

Orbita care trece prin q0 se defineste ca fiind

Oq0 := q0 et1f1 · · · etkfk |ti ∈ IR, fi ∈ F , k ∈ N.In acelasi mod se defineste orbita ın raport cu o familie oarecare de campurivectoriale F .

Teorema 5.1.1. (Teorema orbitei-Nagano, Sussmann) Fie F ⊂ Vec Mo familie de campuri vectoriale si q0 ∈M . Atunci orbita Oq0 are urmatoareleproprietati:

(1) Oq0 este subvarietate imersata a lui M .(2) Pentru q ∈ Oq0, TqOq0 = span q (Ad F )f | F ∈ P, f ∈ F undeP = et1f1 · · · etkfk |ti ∈ IR, fi ∈ F , k ∈ N

Demonstratie Vom construi pe M o topologie mai tare ın care orbitelereprezinta componentele conexe. Fie (Ad P)F = (Ad F )f | F ∈ P, f ∈ Fsi fie πq = span q (Ad P)F. πq este spatiu liniar, subspatiu al spatiuluitangent TqM despre care vom arata ca este de fapt spatiul tangent la Oq0

ın punctul q.

Pasul 1. Demonstram ca dim πq0 = dim πq pentru orice q ∈ Oq0.Deoarece q ∈ Oq0 rezulta ca q = q0 P pentru un P ∈ P. Fie acumv = q0 (Ad F )f ∈ πq0. Atunci

P∗v = v P = q0 F f F−1 P = q (Ad P−1 F )f ∈ πq

deci dim πq0 ≤ dim πq (Q∗ este izomorfism de spatii liniare). Pentru a aratainegalitatea inversa putem schimba rolul lui q cu q0 deoarece q0 ∈ Oq.

Pasul 2. Fie q ∈ Oq0 si m = dim πq0. Fie f1, . . . , fm ∈ (Ad P)F astfelıncat f1(q), . . . , fm(q) formeaza o baza ın πq. Fie V0 o vecinatate a lui 0 ınIRm si fie ϕq : V0 →M definita prin:

ϕq(t1, . . . , tm) = q et1f1 · · · etmfm

73

Aratam ca pentru o vecinatate V0 suficient de mica ϕq este imersie si multi-mile de forma ϕq(V0) formeaza un atlas pe Oq0 si de asemenea formeaza obaza de vecinatati, fiind astfel definite structurile topologica si de varietatediferentiabila.

i) Dϕq(0) are rangul m deoarece∂ϕq

∂ti(0) = fi(q). Rezulta ca pentru o

vecinatate V0 suficient de mica Dϕq(t) are rangul m si deci ϕq este imersie,deci ϕq(V0) este subvarietate m dimensionala a lui M .

ii) Aratam ca ϕq(V0) ⊂ Oq si DϕqTtIRm = πϕq(t) pentru t ∈ V0. Intr-adevar, exista g1, . . . , gm ∈ F , F1, . . . , Fm ∈ P astfel ıncat fi = (Ad Fi)gi,i = 1, . . . ,m. In plus pentru s ∈ R are loc

es(Ad Fi)gi = (Ad Fi)esgi ∈ Pdeci ϕq(t) ∈ Oq.

Pentru a arata egalitatea DϕqTtIRm = πϕq(t) este suficient sa demon-stram incluziunea ′′ ⊆′′ deoarece dimensiunea celor doua spatii liniare co-incide (amintim ca din constructia lui ϕq, v. i), rangul lui Dϕq este m).Intr-adevar, tinand cont ca (etkfk · · · etmfm)−1 ∈ P, fk ∈ F , rezulta ca:

∂tkϕq(t) = q et1f1 · · · fk etkfk · · · etmfm =

= ϕq(t) Ad (etkfk · · · etmfm)−1fk ∈ πϕq(t)

iii) Structura topologica pe M . Fie q ∈ M si fie q ∈ ϕq(V0). Fie ϕq

aplicatia corespunzatoare construita cu ajutorul campurilor vectoriale fi,i = 1, . . . ,m. Aratam ca pentru t suficient de mic (de exemplu ın norma‖ · ‖∞) ϕq(t) ∈ ϕq(V0). Intrucat f1(q) ∈ πq pentru q ∈ ϕq(V0), iar din ii)avem ca πq este spatiul tangent la subvarietatea ϕq(V0), rezulta ca pentrut1 suficient de mic q et1f1 ∈ ϕq(V0). Repetand rationamentul obtinem caϕq(t) ∈ ϕq(V0) pentru t suficient de mic. Am demonstrat astfel ca multimilede tipul ϕq(V0) formeaza o baza de vecinatati ın M .

Pana ın acest moment am definit pe M o structura topologica, pe careo vom numi Γ, iar pe orice obita Oq0 se poate defini o structura de va-rietate diferentiabila, compatibila cu structura topologica definita anterior.Structura de varietate diferentiabila este definita de hartile locale de tipul(ϕq(V0), ϕ−1

q ). In plus, din a doua relatie din ii) rezulta ca TqOq0 = πq.

iv) Orbitele sunt componente conexe ın noua topologie pe M . Intr-adevar,ıntrucat aplicatiile de tipul t → q etf cu q ∈ M,f ∈ F sunt continue ıntopologia Γ, rezulta ca orbitele sunt conexe prin arce, deci conexe. O orbitaoarecare Oq0 este simultan multime deschisa si ınchisa. Deschiderea rezultaimediat din iii). Pentru a demonstra ınchiderea alegem qn ∈ Oq0 , qn → q ıntopologia Γ. Rezulta, din definitia lui Γ, ca qn ∈ Oq pentru n suficient demare. Oq0 ∩ Oq = φ deci Oq0 = Oq si q ∈ Oq0 .

74

Propozitia 5.1.1. Algebra Lie generata de F are proprietatea ca pentruorice q ∈ Oq0

(5.2) Lie qF ⊆ TqOq0 .

Demonstratie Pentru f ∈ F si q ∈ Oq0 , ıntrucat t → q etf este curbaın Oq0, rezulta ca f(q) ∈ TqOq0. Stim de asemenea ca daca doua campurivectoriale pe M sunt tangente la o subvarietate ın toate punctele acesteia,atunci crosetul Lie este tangent la subvarietate ın fiecare punct al acesteia.Asadar, pentru fi ∈ F , i = 1, . . . , k are loc

[f1, [. . . [fk−1, fk] . . .](q) ∈ TqOq0 ,

de unde rezulta (5.2)

O consecinta imediata a teoremei orbitei este teorema lui Chow-Rashevsky:

Teorema 5.1.2. ( Chow-Rashevsky) Fie M o varietate diferentiabila,neteda si conexa si fie F ⊂ Vec M . Daca

(5.3) LieqF = TqM, ∀q ∈M,

atunci

(5.4) Oq = M, ∀q ∈MDemonstratie Folosim propozitia precedenta si observatia ca subvarietatilelui M de aceeasi dimensiune cu varietatea sunt ın mod necesar multimi de-schise ın M .

Observatia 5.1.1. Rezultatul precedent este ın esenta un rezultat decontrolabilitate. Astfel, daca

(5.5) F = −Fcu F = fu, u ∈ U rezulta ca Aq0 = Oq0 si daca ın plus sunt satisfacuteipotezele teoremei 5.1.2, atunci sistemul (5.1) este controlabil.

75

5.2. Sisteme analitice. Integrabilitate. Teorema lui Frobenius

Am vazut ın paragraful precedent ca orbitele sunt varietati imersate.Desigur, ın studiul problemelor de control este importanta caracterizareamultimilor accesibile care, ın cazul simetric (5.5), coincid cu orbitele. Cu-noasterea orbitei este echivalenta din punct de vedere teoretic cu cunoastereaspatiilor tangente la aceasta. Incluziunea (5.2) ne da o caracterizare partialaa acestora. Aceasta incluziune poate fi si stricta, dupa cum vom vedea inexemplul care urmeaza. Paragraful acesta analizeaza cazul ın care incluziu-nea (5.2) devine egalitate. Acesta este cazul ın care modulul Lie F pesteC∞(M) este local finit generat.

Exemplul 5.2.1. Fie M = IR2, F =η(x2)

∂x1,∂

∂x2

unde η ∈

C∞0 (IR). Pentru q = (x1, x2) se observa cu usurinta ca Oq = IR2, ınsa

daca η(x2) = 0 rezulta ca LieqF = span

∂x2

, dim LieqF = 1, deci

incluziunea (5.2) este stricta.

Asadar, Vec M , pe langa structura de algebra Lie are si o structura demodul peste inelul C∞(M). Un submodul S ⊂ Vec M se numeste finit gene-

rat daca exista f1, . . . , fm ∈ S astfel ıncat S =

m∑

k=1

αkfk : αk ∈ C∞(M)

.

Submodulul respectiv se numeste local finit generat daca orice punct q ∈Mare o vecinatate V astfel ıncat S|V este modul finit generat peste C∞(V).

Rezultatul principal al acestui paragraf este:

Teorema 5.2.1. Fie F ⊂ Vec M astfel ıncat modulul peste C∞(M)generat de Lie F este local finit generat. Atunci pentru orice q0 ∈ M sipentru orice q ∈ Oq0

(5.6) TqOq0 = LieqF .

Pentru demonstratia teoremei avem nevoie de urmatorul rezultat

Propozitia 5.2.1. Fie S ⊂ Vec M un submodul finit generat pesteC∞(M). Fie de asemenea g ∈ Vec M astfel ıncat

(5.7) (ad g)S := [g, f ], f ∈ S ⊂ S.

Atunci Ad etgS = S.

Demonstratie Fie f1 . . . , fm ∈ S un sistem de generatori si fie fi(t) =Ad etgfi. Intrucat fi este sistem de generatori, rezulta ca exista αij ∈C∞(M), i, j = 1, . . . ,m astfel ıncat

(ad g)fi =m∑

j=1

αijfj.

76

Campurile vectoriale fi(t) verifica sistemul de ecuatii diferentiale

d

dtfi(t) =

d

dtAd etgfi = Ad etg[g, fi] =

= (Ad etg)m∑

j=1

αijfj =m∑

j=1

(etgαij)Ad etgfj =m∑

j=1

αij(t)fj(t)

unde am notat cu αij(t) := etgαij . Daca notam cu X(t) = (aij(t)) ,X(0) = Id matricea fundamentala asociata sistemului liniar cu matrice(αij(t)), rezulta ca

fi(t) =m∑

j=1

aij(t)fi(0) ∈ S

deoarece fi(0) = fi formeaza un sistem de generatori pentru S.

Demonstratia teoremei 5.2.1 Trebuie sa demonstram incluziunea inversa

(5.8) TqOq0 ⊆ LieqF .Notam cu S modulul peste C∞(M) generat de LieF . Se observa ca S =αf : α ∈ C∞(M), f ∈ LieF si deci Sq = LieqF . Intrucat pentru g ∈ Fare loc (ad g)LieF ⊂ LieF , rezulta din propozitia 5.2.1 ca (Ad etg)S = S.Din caracterizarea spatiului tangent la orbita data ın teorema 5.1.1, punctul(2). si consideratiile precedente, obtinem incluziunea (5.8).

Corolar 5.2.1. Daca M este varietate analitica si F ⊂ Vec M este ofamilie de campuri vectoriale analitice, atunci are loc (5.6).

Demonstratie Facem pentru ınceput observatia ca propozitia 5.2.1 si teo-rema 5.2.1 raman valabile daca consideram M varietate analitica si ınlocuimpe C∞(M) cu Cω(M), spatiul functiilor analitice pe M .

Ramane numai de aratat ca modulul S peste Cω(M), generat de Lie F ,este local finit generat. De altfel este suficient sa aratam ın loc ca, pentrug ∈ F , f ∈ S, are loc Ad etgf ∈ S. Are loc egalitatea Ad etgf = et[g,f ] si,cum solutiilor ecuatiilor diferentiale cu membrul drept analitic sunt analitice,putem scrie ca, pentru un q ∈M

q et[g,f ] =∞∑

k=1

tk

k!q (ad g)kf,

iar convergenta seriei are loc uniform pe compacte din IR. Cum q(ad g)kf ∈LieqF , rezulta ca q et[g,f ] ∈ LieqF si deci Ad etgf ∈ S.

O alta consecinta remarcabila a teoremei orbitei este teorema lui Frobe-nius. Pentru a descrie acest rezultat introducem notiunea de distributie .Se numeste distributie de dimensiune m < n pe M o familie de subspatiitangente ın fiecare punct q al varietatii, ∆ = ∆q ⊂ TqM : q ∈ M, dedimensiune dim ∆q = m. Vom spune ca distributia este integrabila daca

77

ın vecinatatea fiecarui punct q0 exista o subvarietate Nq0 de dimensiune mastfel ıncat pentru orice q ∈ Nq0 are loc TqNq0 = ∆q.

Notam cu Sec ∆ = f ∈ Vec M : f(q) ∈ ∆q, ∀q ∈M.Teorema 5.2.2. Distributia ∆ ⊂ TM este integrabila daca si numai

daca are loc conditia lui Frobenius:

(5.9) f1, f2 ∈ Sec ∆ =⇒ [f1, f2] ∈ Sec ∆

Demonstratie Presupunem ca distributia ∆ este integrabila. Deoareceorice camp vectorial din Sec ∆ este tangent la Nq0 , rezulta ca, ın vecinatatealui q0, Oq0 ⊂ Nq0. Intrucat cu F = Sec ∆ are loc (5.2), rezulta ca dim Oq0 ≥dim Lieq0Sec ∆ ≥ dim Nq0 si deci, ın vecinatatea lui q0, Nq0 = Oq0 . Inclu-ziunea (5.2) devine astfel egalitate si deci are loc (5.9).

Reciproc, presupunem ca are loc (5.9). Atunci, ın vecinatatea lui q0putem gasi f1, . . . , fm, baza pentru ∆. Deoarece are loc (5.9), rezulta caexista αk

ij ∈ C∞, i, j, l = 1, . . . ,m, definite ın vecinatatea lui q0, astfel ıncat

[fi, fj ] =m∑

k=1

αkijfk.

Aceasta ne spune ca Lie Sec ∆ = Sec ∆ deci Lie Sec ∆ este modul finitgenerat peste C∞. Asadar (5.2) are loc cu egalitate si deci TqOq0 = ∆q.Rezulta ca varietatea integrala cautata este Nq0 = Oq0 .

78

CAPITOLUL 6

Principiul de maxim al lui Pontriaghin

6.1. Multimi accesibile si probleme de control optimal

In ceea ce urmeaza consideram ecuatia controlata, pe varietatea n di-mensionala M , cu data initiala fixata:

(6.1)q(t) = f(q(t), u(t)) =: fu(t)(q(t))q(0) = q0

Ipotezele asupra lui f si asupra controalelor (strategiilor) admisibile U suntastfel ıncat pentru orice u ∈ U , campul vectorial neautonom fu(t) satisfaceipotezele din teorema lui Caratheodory 4.1.1. De exemplu, vom presupuneca:

• U ⊂ IRm este multime ınchisa iar multimea strategiilor admisibileU = u : [0, T ]→ U : u ∈ L∞(0, T )• f, fq sunt functii continue ın ansamblul variabilelor (q, u)

Multimea accesibila la momentul t se defineste dupa cum urmeaza:

Aq0(t) = q0 −−→exp∫ t

0fu(τ)dτ |u ∈ U

Notam cu qu(t) = y0 −−→exp∫ t

0fu(τ)dτ iar fluxul corespunzator ecuatiei:

F ts = −−→exp

∫ t

sfu(τ)dτ.

In cele ce urmeaza vom vedea cum problemele de control optimal sereduc la studiul multimilor accesibile.

Teorema 6.1.1. Daca qu∗(T ) ∈ ∂Aq0(T ) (frontiera multimii Aq0(T )),atunci pentru orice 0 < s < T , qu∗(s) ∈ ∂Aq0(s).

Demonstratie Observam ca F Ts (Aq0(s)) ⊂ Aq0(T ) si, ıntrucat F T

s estedifeomorfism, F T

s (int Aq0(s)) ⊂ int Aq0(T ) iar concluzia este imediata.

Vom numi de asemenea optimale aceste traiectorii care ın fiecare mo-ment t se afla pe frontiera multimii acessibile corespunzatoare, iar controlulcorespunzator ıl numim control optimal .

Consideram ecuatia controlata (6.1). Fie un lagrangean L pe TM si lo functie reala definita pe M . Problema de control optimal este de a gasi

79

controlul admisibil u ∈ U astfel ıncat (u, qu) minimizeaza o functionala decost J . Dupa forma functionalei de cost J distingem trei tipuri de probleme:

J(q, u) =∫ T

0L(q(t), u(t))dt Problema Lagrange

J(q, u) =∫ T

0L(q(t), u(t))dt + l(q(T )) Problema Bolza

J(q, u) = l(q(T )) Problema Mayer .

Vom vedea ca cele trei probleme sunt formal echivalente, diferenteleaparand la conditiile de regularitate care trebuiesc impuse asupra functiilorce intervin.

O problema Lagrange cu L ≡ 1 si T liber devine o problema de timpoptimal.

Un control optimal u∗ se numeste control bang-bang daca u∗ ∈ ∂U a.p.t.t ∈ (0, T ).

Consideram pentru ınceput cazul problemei Lagrange cu capatul finalfixat:

q(T ) = q1.

Pentru a reduce problema la o problema de multimi accesibile, introducemo noua variabila j si consideram un nou sistem:

(6.2)

⎧⎨⎩ j′ = L(q, u)q = f(q, u)q(0) = q0, j(0) = 0

cu datele initiale Consideram multimea controalelor u ∈ U astfel ıncatqu(T ) = q1. Daca (u∗, q∗) este pereche optimala atunci

(j(T ), q∗(T )) ∈ ∂A(0,q0)(T )

unde A(0,q0) reprezinta multimea accesibila pentru sistemul (6.2). Aceastatransformare are inconvenientul ca nu distinge ıntre traiectoriile ce realizeazaminimul lui J si cele care realizeaza maximul. Pentru a corecta acest lucru,consideram o multime extinsa de controale U = (u, v)|u ∈ U , v ∈ [0,+∞)si problema modificata

(6.3)

⎧⎨⎩ j′ = L(q, u) + vq = fu(q)q(0) = q0, j(0) = 0

Daca u∗ este control optimal pentru problema Lagrange atunci (u∗, 0) estecontrol optimal pentru (6.3).

Deoarece problema Mayer este un caz particular al problemei Bolza, de-scriem ın cele ce urmeaza reducerea la o problema de multimi accesibile ıncazul celei din urma, cu capatul final liber.

Introducem noua variabila de stare j, multimea extinsa de controale Usi consideram noul sistem de stare:

80

(6.4)

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩j′ = L(q, u) + Lfu l(q) + v

q = f(q, u)

q(0) = q0, j(0) = 0

.

unde, Lfu l este derivata Lie a lui l, care se exprima ın coordonate locale

prin Lfu l(q) =n∑

i=1

∂l

∂qi(q)fi(q, u). Ca si ın cazul problemei Lagrange, daca

u∗ este control optimal pentru problema Bolza, atunci (u∗, 0) este controloptimal ın problema (6.4).

Am vazut asadar ca studiul problemelor de control optimal se reduce lastudiul multimior accesibile, mai precis la studiul acelor traiectorii care aucapatul final pe frontiera multimii accesibile la acel moment.

6.2. Forma geometrica a principiului de maxim al lui Pontriaghin

In cele ce urmeaza consideram ecuatia controlata (6.1):

(6.5)q = f(q, u) =: fu(q)q(0) =0

unde f verifica, ın coordonate locale, ipotezele din paragraful precedent.Pentru u ∈ U consideram hamiltonianul Hu := (fu)# definit de (4.21).

Teorema 6.2.1. Presupunem ca pentru controlul admisibil u∗(t), t ∈[0, T ], qu∗

(T ) ∈ ∂Aq0(T ). Atunci exista o curba Lipschitz, netriviala, ın fi-bratul cotangent, ξ(t) ∈ T ∗

qu∗(t)M , solutie a ecuatiei lui Hamilton (v. (4.20)):

d

dtξ(t) =

−→Hu∗(t)(ξ(t)).

In plus, urmatoarea conditie de maximalitate este satisfacuta:−→Hu∗(t)(ξ(t)) = max

u∈U

−→Hu(ξ(t)).

Demonstratie Ideea de demonstratie este de a considera drept curba ξ(t) ocurba de covectori ortogonali ın fiecare punct la frontiera multimii accesibile∂Aq0(t).

Pasul 1 Fie T : IRN → IRn Lipschitz continua si diferentiabila ın 0 cuT(0) = 0. Notam cu T0 = DT(0) si cu

IRN+ = (x1, . . . , xN ) ∈ IRN |xi ≥ 0.

Demonstram ca daca T0(IRN+ ) = IRn, atunci pentru orice vecinatate V a lui

0 ın IRN , 0 ∈ int T(V ∩ IRN+ ).

Din convexitatea lui IRN+ rezulta ca T0|int IRN

+este surjectiv si fie un

y ∈ int IRN+ cu T0(y) = 0 si δ > 0 astfel ıncat y +Bδ ⊂ int IRN

+ .

81

Se observa cu usurinta ca se poate gasi un subspatiu liniar n−dimensionalX ⊂ IRN astfel ıncat T0(X) = IRn deci T0|X este inversabil. Fie D = Bδ∩Xsi pentru ε > 0 fie functiile continue Tε : D → IRn:

Tε(v) =1εT(ε(y + v))

Se verifica cu usurinta ca Tε → T0 uniform pe D si ıntrucat 0 ∈ int T0(D)rezulta ca 0 ∈ int Tε(D) pentru ε > 0 suficient de mic sau, echivalent,0 ∈ int T(ε(y +Bδ)) ceea ce ıncheie demonstratia pasului 1.

Pasul 2 Consideram un control admisibil u(t) si expimam punctul final altraiectoriei folosind a doua forma a formulei variatiei constantelor (4.18):

(6.6)

qu(T ) = q0 −−→exp∫ T

0fu∗(t) + (fu(t) − fu∗(t))dt =

= qu∗(T ) −−→exp

∫ T

0(F T

t )∗(fu(t) − fu∗(t))dt

Notam cugt,u = (F T

t )∗(fu − fu∗(t))

si fie L multimea punctelor Lebesgue ale lui u∗. Amintim ca punctele

Lebesgue ale lui u∗ sunt punctele t ın care limh→0

∫ t+h

t‖u∗(s)− u∗(t)‖/h = 0.

Teorema lui Lebesgue ne spune ca pentru o functie integrabila aproape toatepunctele sunt puncte Lebesgue.

Presupunem ca conul convex ınchis W generat de gt,u(yu∗(T ))|t ∈

L, u ∈ U coincide cu ıntregul spatiu tangent Tyu∗(T )M . Demonstramca daca se ıntampla acest lucru atunci ın mod necesar q1 := qu∗

(T ) ∈int Aq0(T ). Intr-adevar, se poate atunci gasi o multime finita de puncte0 < t1 < . . . < tN < T si u1, . . . , uN ∈ U astfel ıncat W este generat demultimea finita gti,ui|i = 1, . . . , N. Pentru x = (x1 . . . xN ) ∈ IRN

+ con-sideram controlul:

ux(t) =

⎧⎨⎩ui, t ∈ [ti, ti + xi]

u∗(t), t ∈ [0, T ] \ ∪Ni=1[ti, ti + xi]

Formula variatiei constantelor (6.6) ne da :

(6.7)qux

(T ) = q0 −−→exp∫ T

0fux(t)dt =

= qu∗(T ) −−→exp

∫ t1+x1

t1

gt,u1dt · · · −−→exp∫ tN+xN

tN

gt,undt

Consideram acum aplicatia:

T(x1, . . . , xN ) = qux(T ), x1, . . . , xN ∈ IR.

82

Se verifica cu usurinta ca T este Lipschitz continua, T(0) = q1 si∂T∂xi|(0,...,0) = gti,ui(y1).

Ipotezele pasului 1 din demonstratie sunt verificate si, ın consecinta,

q1 ∈ int T(V ∩ IRN+ )

pentru orice vecinatate V a lui 0 ın IRN . Intrucat ux este control admisibildeducem ca

q1 ∈ int Aq0(T )

Pasul 3 Presupunem ca qu∗(T ) ∈ ∂Aq0(T ). Deoarece 0 ∈ ∂W, exista un

hiperplan suport definit de ξ(T ) ∈ T ∗qu∗(T )

M ,ξ(T ) = 0 astfel ıncat

(ξ(T ), gT,u(qu∗(T ))) ≤ 0 a.e. t ∈ [0, T ], u ∈ U

Aceasta ınseamna exact ca

[(F Tt )∗ξ(T )](fu∗

(qu∗(t))) ≥ [(F T

t )∗ξ(T )](fu(qu(t)))

Fieξ(t) = (F T

t )∗ξ(T ).Conditia de maximalitate este satisfacuta si, din (4.22),

d

dtξ(t) =

−→Hu∗(t)(ξ(t)),

ceea ce ıncheie demonstratia.

6.3. Probleme de control optimal cu timp final liber

Din punctul de vedere geometric, ın cazul problemelor Lagrange sauBolza considerate ın §6.1, daca timpul final T este liber, concluzia esteca pentru problemele echivalente (6.2), respectiv (6.4), perechea optimala((u∗, 0), (j∗, yu∗

) satisface, pentru ε > 0 suficient de mic

(6.8) (j∗(T ), qu∗(T )) ∈ ∂(∪|T−t|<εA(0,q0)(t)).

Are loc urmatorul principiu de maxim,ın forma geometrica, pentru proble-mele de control cu timp liber:

Teorema 6.3.1. Presupunem ca pentru controlul admisibil u∗(t), t ∈[0, T ],

qu∗(T ) ∈ ∂(∪|T−t|<εAq0(t))

Atunci exista o curba Lipschitz, nenula, ın fibratul cotangent ξ(t) ∈ T ∗qu∗(t)

M

solutie a ecuatiei lui Hamiltond

dtξ(t) =

−→Hu∗(t)(ξ(t))

si urmatoarea conditie de maximalitate este satisfacuta:

(6.9) Hu∗(t)(ξ(t)) = maxu∈U

Hu(t)(ξ(t)).

83

In plus fata de cazul timpului fixat are loc:

(6.10) Hu∗(t)(ξ(t)) = 0 a.p.t. t ∈ [0, T ]

Demonstratie Problema de control optimal cu timp liber se poate re-duce la o problema cu timp fixat considerand o reparametrizare a traiec-toriilor sistemului initial si introducand un control suplimentar legat dereparametrizarea timpului in felul urmator:Fie reparametrizarea timpului:

t = γ(s), γ′ > 0.

Atunci solutia qu(s) = qu(γ(s)) satisfaced

dsqu(s) = γ′(s)fu(γ(s))(q)

Sistemul modificat este⎧⎪⎨⎪⎩q′ = ϕfu(q) u ∈ U, |ϕ− 1| < ε

T< 1

q(0) = q0

Controalele admisibile sunt functiile masurabile, marginite, de forma v(t) =(ϕ(t), u(t)), |ϕ − 1| ≤ ε

Tiar solutia corespunzatoare se noteaza cu qv(t).

Notand cu v∗(t) = (1, u∗(t)) atunci , ıntrucat qu∗(T ) ∈ ∂(∪|T−t|<εAq0(t)),

rezulta ca qv∗(T ) ∈ ∂Aq0(T ) si, ın acest punct, principiul de maxim stabilitın cazul timpului fixat poate fi aplicat. Hamiltonianul este

Hv(ξ) = ϕHu(ξ), v = (ϕ, u)

Sistemul hamiltonian pentru Hv∗ este acelasi ca si pentru Hu∗. Conditia de

maximalitate devine

Hv∗(ξ(t)) = Hu∗(t)(ξ(t)) = max|ϕ−1|<εT,u∈U

ϕHu(ξ(t))

de unde rezulta relatiile (6.9), (6.10).

84

6.4. Principiul de maxim pentru problemele de control optimal

In aceast paragraf vom explicita principiul de maxim prezentat ın §6.2pentru diferitele probleme de control ce apar ın practica, utilizand transfor-marea descrisa ın §6.1. Consideram din nou sistemul controlat (6.1), pentrusimplitate ın M = IRn si notam starea sistemului cu y iar derivata cu y′:

(6.11)y′(t) = f(y(t), u(t)) =: fu(t)(y(t))y(0) = y0

Problema Lagrange. Ne propunem sa minimizam functionala de cost

J(y, u) =∫ T

0L(y(t), u(t))dt

pentru y verificand (6.11) si

y(T ) = y1.

Lagrangeanul L verifica ipoteza:L,Ly sunt functii continue ın ansamblul variabilelor (y, u).

Consideram sistemul (6.3). Starea adjuncta este (ν, p), ν ∈ IR, p ∈ IRn,hamiltonianul

Hu,v(j, y, ν, p) = ν(L(y, u) + v) + p · f(y, u).

Presupunem ca u∗ este control optimal iar y∗ este solutia corespunzatoarecontrolului optimal (u∗, 0) ın problema de multimi accesibile asociata. Notamcu Hu(y, p) := Hu,0(j, y, ν, p) pentru un ν fixat. Sistemul adjunct este(6.12)⎧⎨⎩ ν ′ = 0

p′ = −∂Hu,v

∂y(j, y, ν, p) = −∂H

u

∂y(y, p) = −(fy(y∗, u))∗p− νLy(y∗, u)

Principiul de maxim ne spune ca exista (ν, p) solutie netriviala a sistemuluiadjunct astfel ıncat

Hu∗,0(j∗, y∗, ν, p) = maxu∈U,v≥0

Hu,v(j∗, y∗, ν, p).

Cum ν = cst rezulta ca maximul se poate atinge daca si numai daca ν ≤ 0.Distingem doua situatii: ν = 0 si ν < 0. Daca ν = 0 vom spune ca problemaeste singulara. Daca ν < 0 problema se numeste normala si putem consideraν = −1. Deci

Hu∗= max

u∈UHu(y∗, u∗).

Facem aici observatia ca principiul de maxim este util pentru determinareacontrolului optimal ın cazul normal, ıntrucat hamiltonianul depinde efectivde L, care identifica de fapt problema de control.

Daca presupunem ca capatul final se misca liber pe o subvarietate M1,apar ın plus conditiile de transversalitate :

p(T ) ⊥M1 ın y∗(T ).

85

Vom discuta conditiile de transversalitate ın §6.5.Problema Bolza. Ne propunem sa minimizam functionala de cost

J(y, u) =∫ T

0L(y(t), u(t))dt + l(y(T )),

pentru y verificand (6.11) si y(T ) liber. l este o functie de clasa C2. Aceastgrad de regularitate sporit este util numai pentru a obtine principiul demaxim reducand problema la o problema Lagrange ınsa forma principiuluide maxim ramane valabila si daca l este numai de clasa C1.

Am vazut ın §6.1 cum o problema Bolza se reduce formal la o problemaLagrange cu capatul final liber. Aplicam principiul de maxim pentru sis-temul extins (6.4). Presupunand ca u∗ este control optimal, exista perechea(ν, ξ) = (0, 0) care verifica sistemul adjunct, cu hamiltonianul Hu,v definitın mod uzual:⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩

ν ′ = 0

ξ′ = −∂Hu∗,0

∂y(j, y, ν, ξ) =

= −(fy(y∗, u∗))∗ξ − νLy(y∗, u)− ν∂

∂y(

n∑i=1

∂l

∂qi(q)fi(q, u))

si conditia de transversalitate

ξ(T ) = 0.

In plus, este verificata conditia de maximalitate

Hu∗,0(y∗(t), ξ(t)) = maxu∈U,v≥0

Hu,v(y∗(t), ξ(t)).

Daca notam cup(t) = ξ(t) + ν∇l(y∗(t))

si cuHu(t, y, p) = (p, f(y, u)) + νL(y, u)

obtinem ca exista perechea (ν, p) netriviala astfel ıncat este verificat sistemuladjunct obisnuit

(6.13)

⎧⎨⎩ν ′ = 0

p′ = −∂Hu∗

∂y(y∗, p) = −f∗y (y∗, u∗)p− νLy(y∗, u)

ımpreuna cu conditia de transversalitate

p(T ) = ν∇l(y∗(T )).

Daca presupunem ca y(T ) este liber sa se miste pe o subvarietate diferentiabilaM1 conditia de transversalitate devine

p(T )− ν∇l(y∗(T )) ⊥M1 ın y∗(T ).

86

Probleme cu timpul final liber. Consideram una din problemele de con-trol anterioare pentru ecuatia autonoma (6.11) dar cu timpul final liber.Apare deci o necunoscuta ın plus, T , pentru care suplimentam sistemulhamiltonian determinat anterior ((6.11),(6.12), respectiv (6.11),(6.13))cuconditia (6.10) determinata ın §6.3:

Hu∗(y∗(t), p(t)) ≡ 0.

Probleme neautonome. Consideram acum cazul ın care functiile ce in-tervin ın problema, f, L, depind explicit de timpul t. Pentru ınceput con-sideram timpul final T fixat. Adaugam urmatoarea ipoteza de regularitate:

f, ft, L, Lt continue ın raport cu ansamblul variabilelor (t, y, u).

Ca de obicei, se transforma sistemul ıntr-un sistem autonom prin intro-ducerea unei variabile suplimentare yn+1 = t. Sistemul de stare (6.11) secompleteaza cu ecuatia

y′n+1 = 1, yn+1(0) = 0.

In sistemul de stare apare o variabila suplimetara, pn+1. Hamiltonianulsistemului este

Hu(yn+1, y, p, pn+1) = pn+1 +Hu(yn+1, y, p).

Sistemul hamiltonian se suplimenteaza asadar cu ecuatia

p′n+1 = − ∂

∂tHu∗

(t, y, p).

Conditia de maximizare ramane aceeasi ca ın cazul autonom

Hu∗(t, y∗, p) = max

u∈UHu(t, y∗, p)

iar perechea (ν, p) este netriviala. Facem observatia ca din principiul demaxim pentru sistemul autonom se obtine de fapt ca tripletul (ν, y, yn+1)este netrivial, ınsa, ıntrucat yn+1 este liber (are o valoare bine determinataobtinuta ın urma integrarii ecuatiei, dar nu precizata a priori) vom lua

pn+1(T ) = 0

si se vede ca daca (ν, p) ≡ (0, 0) atunci ın mod necesar pn+1 ≡ 0.Daca timpul final T este liber, atunci variabila adjuncta pn+1 intervine

explicit si are loc conditia de anulare a hamiltonianului H:

Hu∗(t, y∗, p, pn+1) = pn+1 +Hu∗

(t, y∗, p) ≡ 0.

Daca, ın plus, capatul final y(T ) este liber sa se miste pe o subvarietateM1, atunci se suplimenteaza sistemul cu conditiile de transversalitate core-spunzatoare.

87

6.5. Legatura dintre principiul de maxim si principiulprogramarii dinamice

In cele ce urmeaza vom pune ın evidenta legatura dintre principiul demaxim al lui Pontriaghin si ecuatia programarii dinamice a lui Bellman.

Consideram problema de control optimal de tip Bolza care a fost studiataın §6.4. Principiul de maxim pentru aceasta problema ne spune ca, daca u∗este un control optimal, atunci exista ν ∈ 0,−1 si p(t), (ν, p) = (0, 0) ,astfel ıncat (y, p) verifica sistemul hamiltonian

(6.14)

⎧⎪⎪⎪⎨⎪⎪⎪⎩y′ = f(t, y∗, u∗) =

∂pHu∗

(t, y∗, p)

p′ = −(p, fy(t, y∗, u∗)) + νLy(t, y∗, u∗) = − ∂

∂yHu∗

(t, y∗, p)

p(T ) = −∇l(y∗(T ))

unde Hu(t, y, p) = (p, f(t, y, u)) + νL si

Hu∗(t)(t, y∗(t), p(t)) = maxu∈U

Hu(t, y ∗ (t), p(t)).

In §3.3, teorema 3.3.1 s-a aratat ca functia valoare ψ, ın cazul ın care estede clasa C1, verifica ecuatia programarii dinamice (3.14):

(6.15)ψt −H(t, x, ψx) = 0ψ(T, x) = l(x)

unde H(t, x, p) = maxu

Hu(t, x,−p). Notand cu S = −ψ, obtinem

St +Hu∗(t, x, Sx) = 0

iar aceasta este exact ecuatia Hamilton-Jacobi (v.§2.3) ce corespunde sis-temului hamiltonian (6.14) ce apare ın principiul de maxim al lui Pon-triaghin.

Urmatoarea teorema stabileste principiul de maxim pentru problema decontrol considerata, facand apel la ecuatia lui Bellman. Ipotezele consideratesunt, desigur, restrictive ınsa rezultatul pune ın lumina legatura dintre celedoua ramuri ale teoriei controlului optimal, fiind un analog al teoremei luiJacobi din Calculul variatiilor. Aceasta problema, ın ipoteze generale, a foststudiata ın [15].

Teorema 6.5.1. Presupunem ca u∗ este control optimal iar functia va-loare ψ este de clasa C2. Atunci problema de control optimal considerataeste normala. In plus, daca notam cu

(6.16) p = −ψx(t, y∗(t))

atunci (y∗, p) satisface (6.14) cu ν = −1.

Demonstratie Cum ψ ∈ C1, din teorema 3.3.1, aceasta este solutie pentru(6.15). Deci

(6.17)d

dtp(t) = −ψtx(t, y∗(t))− ψxx(t, y∗(t))f(t, y∗, u∗).

88

Pe de alta parte, din principiul programarii dinamice,

d

dtψ(t, y∗(t)) = −L(t, y∗(t), u∗(t)) =

= ψt(t, y∗(t)) + (ψx(t, y∗(t)), f(t, y∗(t), u∗(t))).

Aceasta, ımpreuna cu ecuatia lui Bellman satisfacuta de ψ, ne spune caperechea (y∗(t), u∗(t)) realizeaza minimul pentru functia (x, u)→ ψt(t, x) +(ψx(t, x), f(t, x, u))+L(t, x, u). Rezulta ca derivata ın raport cu x calculataın (t, y∗(t), u∗(t)) este 0 adica

ψxt(t, y∗(t)) + ψxx(t, y∗(t))f(t, y∗(t), u∗(t))+

+(ψx(t, y∗(t)), fy(t, y∗(t), u∗(t)) + Ly(t, y∗(t), u∗(t)) = 0,

ceea ce, ımpreuna cu (6.17) ıncheie demonstratia.

Conditii de transversalitate.

Daca ın problema de control optimal de tip Bolza considerata anterioravem o restrictie suplimentara asupra capatului final:

y(T ) ∈M1

unde M1 este o subvarietate diferentiabila a spatiului starilor sistemului,atunci, ın principiul de maxim al lui Pontriaghin, conditia

p(T ) = −∇l(y∗(t))

este ınlocuita cu conditia de transversalitate

p(T ) +∇l(y∗(T )) ortogonal pe M1.

Nu vom demonstra acest lucru ın cazul general ınsa facem observatia cafunctia valoare ψ verifica

ψ(T, x) = l(x), x ∈M1

de unde, presupunand ca functia valoare este de clasa C2, rezulta ca

∇ψ(T, x) −∇l(y∗(T )) ⊥M1 ın y∗(T )

deci, din (6.16), obtinem imediat conditia de transversalitate.Cazul unei probleme Lagrange cu timpul final y(T ) ∈ M1 este caz par-

ticular al problemei Bolza cu l ≡ 1 iar conditia de transversalitate devine

p(T ) ⊥M1 ın y∗(T ).

89

6.6. Probleme de control optimal - exemple

Exemplul 6.6.1. Oprirea unui tren ın statie. Consideram miscarea unuitren. Controlul se face prin intermediul fortei aplicate, iar scopul este de aaduce trenul ın statie si de a-l opri. Sistemul este modelat de ecuatia

my′′ = u,

unde m reprezinta masa, y pozitia si u forta aplicata. Scrisa ca un sistemde ordinul I (notand cu y1 = my) ecuatia ia forma:

(6.18)y′1 = y2

y′2 = u.

Starea sistemului este y = (y1, y2)T ∈ IR2, controlul u ∈ IR reprezinta fortacare este aplicata (forta motoare sau forta de franare), starea initiala estey(0) = y0 = (y0

1 , y02)

T iar starea finala y(T ) = (0, 0)T .

Cost optimal. Se pune problema opririi trenului cu consum minim de en-ergie. Consideram pentru aceasta situatie functionala de cost

J(y, u) =12

∫ T

0u2dt

si cautam solutia problemei corespunzatoare de control optimal. Notam cup = (p1, p2)T starea duala. Hamiltonianul sistemului este

Hu(y, p) = p1y2 + p2u+ν

2u2

Sistemul dual este p′1 = 0p′2 = −p1

Principiul de maxim ne spune ca

(6.19) Hu∗(y∗, p∗) = max

u∈IRHu(y∗, p∗)

Pentru ınceput ne convingem ca problema este normala. Daca ν ar fi 0,atunci starea duala ar fi netriviala p2 = 0. Dar atunci max

u∈IRp2u nu se atinge.

Asadar putem considera ν = −1 iar maximul ın (6.19) se atinge ın u = p2,deci hamiltonianul maximizat este

Hmax = p1y2 +12p22.

Pentru a afla traiectoriile optimale trebuie sa rezolvam sistemul hamiltoniancorespunzator lui Hmax: ⎧⎪⎪⎨⎪⎪⎩

y′1 = y2

y′2 = p2

p′1 = p2

p′2 = −p1

cu conditiile la limita:

y1(0) = y01, y2(0) = y0

2 , y1(T ) = 0, y′1(T ) = 0 .

90

Sistemul acesta este un sistem liniar si se integreaza cu usurinta (yIV1 = 0).

Cele patru constante de integrare se determina ın mod unic din conditiile lalimita. Controlul optimal este apoi determinat prin formula

u∗(t) = p2(t).

Timp optimal. Starea finala este y1(T ) = 0, y2(T ) = 0 si scopul este de ao atinge ın timp minim. Pentru problema de timp optimal vom consideraU = [−1, 1]. Existenta solutiei rezulta din teorema 3.6.1 iar unicitateaeste consecinta aceluiasi rezultat, deoarece ipoteza (3.43) este verificata.Hamiltonianul sistemului este:

Hu(y, p) = p1y2 + p2u,

iar hamiltonianul maximizat devine

Hmax(y, p) = max|u|≤1

Hu(y, p) = p1y2 + |p2|.

Hamiltonianul maximizat nu mai este de clasa C2, ınsa putem ın continuareobtine informatii din principiul de maxim, care ın acest caz spune ca

Hu∗(y∗, p∗) = max

|u|≤1Hu(y∗, p∗) ≥ 0,

unde p∗ = (p1, p2) este starea adjuncta ın raport cu hamiltonianul Hu∗:

(6.20)p′1 = 0p′2 = −p1.

Deciu∗(t) = sign (p2(t)) = sign (αt+ β).

unde α, β sunt constante de integrare pentru sistemul adjunct. Din formulapentru u∗ rezulta ca acesta ia numai valorile ±1 si are cel mult un punctde comutare. Traiectoriile care ajung ın origine fara schimbarea controluluisunt solutiile sistemului cu u = 1 sau u = −1. Traiectoriile respective suntsemiparabolele de ecuatii

y1 =y22

2, y2 < 0; y1 = −y

22

2, y2 > 0.

Daca un punct (y01 , y

02) nu apartine uneia dintre cele doua semiparabole,

atunci numai o traiectorie, corespunzand controlului u = 1 sau u = −1,va trece prin acest punct si va ıntalni una dintre cele doua semiparabole.Aceasta este traiectoria de timp optimal care continua pana ın origine cuportiunea din semiparabola corespunzatoare.

Exemplul 6.6.2. Problema pozitionarii sau problema aselenizarii line.Ne propunem sa pozitionam o nava, ın miscare pe directie verticala ın campgravitational si asupra careia actionam cu o forta u ∈ U = [−F,F ]. Ecuatiace modeleaza miscarea este

(6.21) My′′ = u−Mg

91

unde M reprezinta masa navei iar g acceleratia gravitationala. Sistemul destare, notand cu y1 = My, devine

(6.22)y′1 = y2

y′2 = −Mg + u

Ne propunem determinarea unui control admisibil astfel ıncat la momentulT sa avem y1(T ) = 0, y2(T ) = 0, iar T sa fie minim cu aceasta proprietate.Putem sa renotam controlul si consideram noul control

u = u−Mg

cu u ∈ [−Mg − F,−Mg + F ]. Sistemul (6.22) este de aceeasi forma cusistemul (6.18), ınsa, spre deosebire de problema opririi unui tren ın statie,apare restrictia de stare

y1 ≥ 0.

In plus este necesara conditia ca

F > Mg,

altminteri acceleratia mobilului este ıntotdeauna negativa si deci problemanu are solutie.

Asadar, ın problema de timp optimal avem aceleasi solutii ca si ın cazulopririi unui tren ın statie (cu deosebirea ca parabolele respective ce compuntraiectoria optimala corespund controalelor u = −F −Mg, respectiv u =−F +Mg) ınsa vom retine drept acceptabilie numai solutiile care raman ınsemiplanul y1 ≥ 0. Daca solutia ın semiplanul y1 < 0, aceasta semnifica ınsituatia de fata ca nu putem pozitiona lin mobilul: acesta va atinge solul cuviteza nenula.

Pozitionarea cu optimizarea timpului si a consumului de combustibil. Pre-supunem ca consumul de combustibil este proportional cu forta aplicata:c = µu si ne propunem sa optimizam simultan consumul si timpul depozitionare T . Functionala de cost pe care o consideram ın acest caz este

J(y, u) =∫ T

0(k + |u|)dt.

unde k este o constanta pozitiva ce exprima ponderea pe care o are opti-mizarea timpului ın raport cu optimizarea consumului de combustibil. Avemdeci de rezolvat o problema Lagrange cu timpul final liber. Hamiltonianulsistemului este:

Hu(y, p) = p1y2 + p2(u−Mg) + ν(|u|+ k)

unde p = (p1, p2)T reprezinta starea adjuncta iar ν ∈ −1, 0. Daca amconsidera ν = 0 am obtine ın final traiectoriile ce corespund problemei detimp optimal. Vom considera asadar ν = −1. In cele din urma se poateverifica ca costul obtinut este mai mic decat de-a lungul traiectoriei din cazultimpului optimal. Principiul de maxim al lui Pontriaghin pentru problemele

92

cu timp liber ne spune ca exista o solutie (y∗, p) a sistemului cu hamiltonianulHu∗

(u∗ controlul optimal) astfel ıncat

Hu∗(y∗, p) = max

|u|≤FHu(y∗, p) ≡ 0.

Un calcul elementar ne arata ca acest maxim se atinge ın

u∗ =

⎧⎨⎩ F pentru p2 > 10 pentru − 1 < p2 < 1−F pentru p2 < −1

.

Sistemul adjunct este (6.20) deci solutia are forma p1 = α, p2 = −αt + β.Daca α = 0 rezulta ca controlul va lua valorile (+F, 0,−F ) sau (−F, 0, F )ın aceasta ordine (sau o parte a acesteor succesiuni ınsa ın niciun caz nu vacomuta de la F la −F sau invers, ca ın cazul problemei de timp optimal).De asemenea nu vom putea ajunge ın (0, 0) cu controlul u = −F deoareceaceasta ar ınsemna ca y2(t) > 0 pentru t < T suficient de apropiat de T ,deci y1(t) < 0. Rezulta ca numai succesiunea (−F, 0, F ) este posibila.

Sa presupunem pentru exemplificare ca y1(0) = y01 > 0, y2(0) = 0. Sa

observam ca α = 0. Intr-adevar, daca α = 0, atunci p1 ≡ 0, p2 ≡ β iarHu(y, p) = β(u−Mg) − (|u|+ k). Daca β > 0, atunci maximul hamiltoni-anului este max|u|≤F = −βMg − k < 0, contradictie. Daca β < 0, atuncimaximul se atinge pentru u negativ, deci controlul optimal pastreaza semnnegativ, ceea ce ar ınsemna ca ajungem ın (0, 0) cu acceleratie negativa.Din acelasi motiv controlul initial nu poate fi 0, deci ıntreaga succesiune(−F, 0, F ) este parcursa de controlul optimal u∗. Cum perechea (α, β) estedeterminata pana la o constanta multiplicativa, putem considera α = 1 siβ < −1. Necunoscutele sunt deci β si timpul final T , care se determinadin conditia de anulare a hamiltonianului si datele initiala si finala pentru(y1, y2). Lasam ca exercitiu acest calcul, precum si determinarea momentelorde comutare.

Pozitionarea cu variatia masei datorata consumului de combustibil. Dacatinem cont de faptul ca masa navei variaza ca urmare a consumului decombustibil, trebuie sa suplimentam ecuatia (6.21) cu ecuatia

M ′ = −µ|u|

si restrictia de stare M ≥ M , M fiind masa vehiculului fara combustibil.Cu y1 = y si considerand numai controale pozitive u ∈ U = [0, F ], obtinemsistemul de stare

(6.23)

⎧⎪⎨⎪⎩y′1 = y2

y′2 = −g +u

MM ′ = −µu

Ne propunem pozitionarea lina cu consum minim de combustibil deci avemo problema de tip Mayer cu functionala de minimizat

J(u, (y1, y2,M)) = −M(T )

93

si cu timp final liber. Conditiile la capete care se impun sunt:

y1(0) = y01 > 0, y2(0) = 0, y1(T ) = 0, y2(T ) = 0.

Notam cu y = (y1, y2,M), p = p1, p2, p3. Hamiltonianul sistemului este

Hu(y, p) = p1y2 + p2(M−1u− g)− p3µu.

Sistemul adjunct este ⎧⎪⎨⎪⎩p′1 = 0p′2 = −p1

p′3 =up2

M2

Conditia de transversalitate care se adauga este

p3(T ) = 1

si, ıntrucat avem o problema cu timpul final liber,

Hu∗(y∗, p) = max

u∈UHu(y∗, p) ≡ 0.

Conditia de maximizare a hamiltonianului ne da o formula pentru controluloptimal ın functie de starea adjuncta:

u∗ =

0 daca p2M−1 − µp3 < 0

F daca p2M−1 − µp3 > 0

Functia h(t) = p2(t)M−1(t)−µp3(t) este monotona deoarece un calcul sim-

plu ne arata ca h′(t) = − p1(t)M(t)

. Punctele de comutare ale controlului optimal

u∗ sunt zerourile functiei g. Daca p1 = 0, atunci functia h este strict mono-tona si deci controlul u∗ are cel mult un punct de comutare. Daca p1 ≡ 0 sifunctia h s-ar anula pe un ıntreg interval deschis, atunci pe acest interval arrezulta, din conditia de anulare a hamiltonianului, ca p2 = 0 deci pe [0, T ]are loc p2 ≡ 0 si p3 ≡ 1. Ar rezulta ca u∗ ≡ 0, absurd. Asadar, p1 = 0 sicontrolul u∗ are cel mult un punct de comutare, luand forma

u∗(t) =

0 t ≤ tF t < t ≤ T.

Necunoscutele sunt ın acest moment t, T pe care le determinam integrandsistemul si impunand conditia ca y1(T ) = 0, y2(T ) = 0. Astfel, solutia areexpresia:Pentru 0 ≤ t ≤ t:

M(t) = M0, y2(t) = −gt, y1(t) = −gt2

2+ y0

1.

Pentru t ≤ t ≤ T :

M(t) = M0 − µF (t− t), y2(t) = −gt− 1µ

lnM0 − µF (t− t)

M0,

y1(t) = y01 −

gt2

2+M0 − µF (t− t)

µ2FlnM0 − µF (t− t)

M0+t− tµ

94

Rezolvarea sistemului y1(T ) = 0, y2(T ) = 0 folosind expresiile determinatemai sus conduce la un sistem implicit ın necunoscutele (t, T ). Lasam caexercitiu studiul acestui sistem si determinarea conditiilor de compatibilitatecare se impun (intuitiv, o masa de combustibil mica ın raport cu ınaltimeainitiala y0

1 nu va permite pozitionarea lina a mobilului).

Exemplul 6.6.3. Oscilatorul armonic controlat. Consideram un oscila-tor armonic asupra caruia actionam cu o forta u. Acest sistem este modelatde ecuatia

my′′ = −ky + u

undem este masa, k constanta de elasticitate, y reprezinta pozitia iar u ∈ IRcontrolul. Transformam ecuatia ıntr-un sistem de ordinul I si, rescalandsi considerand constantele ce intervin egale cu 1, obtinem sistemul liniarcontrolat:

(6.24)y′1 = y2

y′2 = −y1 + u

Scopul este de a aduce oscilatorul ın starea de repaus ın timpul T dat,cunoscand starea initiala (y0

1 , y02).

Control optimal pentru oscilatorul armonic. Ne propunem sa aducem sis-temul ın starea de repaus cu consum minim de energie data prin functionalade cost

J(y, u) =12

∫ T

0u2dt.

In primul rand se observa ca sistemul este controlabil. Matricea sistemu-

lui este A =(

0 1−1 0

), operatorul de control B =

(01

)deci matricea

Kalman este nesingulara:

[A|B] =(

0 11 0

).

Existenta si unicitatea controlului optimal u∗ pot fi obtinute printr-un argu-ment asemanator celui folosit ın demonstratia teoremei 3.4.1. Hamiltonianuleste

Hu(y, p) = p1y2 − p2y1 + p2u+12νu2

iar starea adjuncta p = (p1, p2) verifica sistemulp′1 = p2

p′2 = −p1.

Principiul de maxim al lui Pontriaghin ne spune

Hu∗(y∗, p∗) = max

uHu(y∗, p∗)

iar perechea (p, ν) = (0, 0). Daca ν = 0 atunci maximul se poate atingenumai daca p2 = 0, caz ın care si p1 ar fi nul. Deci problema este normala

95

si putem considera ν = −1. In acest caz controlul optimal se exprima ınfunctie de starea duala

u∗(t) = p2(t) = a sin(t+ b)

unde a, b sunt constante de integrare. Asadar, pentru a gasi controlul opti-mal rezolvam sistemul initial cu controlul de forma data:

y′1 = y2

y′2 = −y1 + a sin(t+ b)

si determinam cele patru constante (a, b si celelalte doua constante de inte-grare) din conditiile la limita y(0) = (y0

1 , y02), y(T ) = (0, 0).

Timp optimal. Pentru problema de timp optimal vom considera o multimemarginita si convexa de controale U = u ∈ IR : |u| ≤ 1. Existentasi unicitatea solutiei problemei de timp optimal rezulta din teorema 3.6.1.Hamiltonianul sistemului este

Hu(y, p) = p1y2 − p2y1 + p2u

iar starea adjuncta verifica sistemulp′1 = p2

p′2 = −p1.

cu solutia generala

p1(t) = −a cos(t+ b), p2(t) = a sin(t+ b),

a, b constante cu a = 0 deoarece p = (0, 0). Din principiul de maxim,hamiltonianul se maximizeaza de-a lungul traiectoriei optimale, deci

p2(t)u∗(t) = max|u|≤1

p2(t)u.

Rezulta asadar cau∗(t) = sign (a sin(t+ b)).

Din forma controlului optimal rezulta ca acesta ia alternativ valorile ±1cu un numar finit de schimbari de semn la intervale de timp de π unitati(mai putin eventual la ultima schimbare). Solutiile sistemului cu controlulconstant u = 1 sau u = −1 verifica respectiv sistemul

y′1 = y2

y′2 = −y1 ± 1

Traiectoriile sunt cercuri cu centrele ın (1, 0), respectiv (−1, 0). Traiectori-ile optimale care ajung direct ın origine fara schimbarea controlului suntsemicercurile de ecuatii:

(y1 − 1)2 + y22 = 1, y2 ≤ 0, u = 1; (y1 + 1)2 + y2

2 = 1, y2 ≥ 0, u = −1.

parcurse ın sens orar. Celelalte traiectorii optimale sunt formate din suc-cesiuni finite de arce de cerc parcurse ın sens orar, cu centrele ın (1, 0),

96

respectiv (−1, 0) (alternativ), care, cu exceptia eventual a primului si a ul-timului arc, sunt semicercuri. Punctele de comutare a controlului se afla laintersectia cu semicercurile de ecuatii:

(y1− (2k+1))2 + y22 = 1, y2 ≤ 0; (y1 +(2k+1))2 + y2

2 = 1, y2 ≥ 0, k ≥ 1.

Exemplul 6.6.4. O problema de urmarire 1-dimensionala. O masinade politie ce stationeaza este depasita de un autovehicul ce circula cu vitezav = 1. Aceasta porneste ın urmarire. Scopul este de a ajunge masina si dea continua apoi miscarea alaturi de aceasta. Sistemul de stare pentru primamasina este (v. exemplul 6.6.1)

y′1 = y2

y′2 = u,

iar controlul u este cautat astfel ıncat la momentul atingerii tintei

y1(T ) = T, y2(T ) = 1.

Functionala pe care ne propunem sa o minimizam tine cont atat de timpulnecesar, cat si de energia cheltuita si o alegem de forma

J(y, u) =∫ T

0(1 +

12u2)dt.

Introducem o variabila de stare suplimentara y3 = t si ecuatia satisfacutade aceasta

y′3 = 0.Hamiltonianul sistemului este

Hu(y, p) = p1y2 + p2u− (1 +12u2).

Sistemul adjunct corespunzator controlului optimal u∗ este⎧⎨⎩ p′1 = 0p′2 = −p1

p′3 = 0

iar conditiile de transversalitate ın t = T :⎛⎝ p1(T )p2(T )p3(T )

⎞⎠ =

⎛⎝ αβ−α

⎞⎠ ,cu α, β constante. Solutia sistemului adjunct este p1(t) = α, p2(t) = −αt+β−αT , p3(T ) = −α. Conditia de maximizare a hamiltonianului de-a lungultraiectoriei optimale ne da forma controlului optimal (am notat cu B =β − αT ):

u∗(t) = p2(t) = −αt+B.

Integram acum sistemul de stare cu controlul optimal obtinut si obtinem

y1(t) = −αt3

6+Bt2

2.

97

Conditiile finale ımpreuna cu anularea hamiltonianului ne dau sistemul⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩−αT

3

6+BT 2

2= T

−αT2

2+BT = 1

B2

2− α− 1 = 0

care rezolvat ne da valorile pentru α,B, T .

98

Index

brahistocrona, 13, 17

camp vectorialcomplet, 60hamiltonian, 69neautonom, 59

catenara, 22cicloida, 18conditii

de transversalitate, 34, 89necesara, 1necesara, Jacobi, 19, 20, 24necesara, Legendre, 2, 20, 24suficiente de minim local, 24Weierstrass-Erdmann, 17, 35

control, 4admisibil, 4, 5bang-bang, 80feedback, 4, 48optimal, 4, 5, 79

controlabilitateaproximativa, 4exacta, 4

derivare, 62distributie, 77

ecuatiaa doua a lui Euler, 19, 24Euler-Lagrange, 2, 23, 29Euler-Lagrange ın IRn, 23Hamilton, 69Hamilton-Jacobi, 36Hamilton-Jacobi-Bellman, 48programarii dinamice, 48Riccati, 25Riccati algebrica, 54Riccati diferentiala, 51

ExempleAtractia de catre doua mase fixe

egale, 14, 38

Distanta dintre doua curbe, 34Geodezicele unei varietati

riemanniene, 15, 25Mecanica lagrangeana, 13, 27Miscarea ın camp de forte central, 14,

27O problema de urmarire, 97Oprirea unui tren ın statie, 90Oscilatorul armonic controlat, 95Problema brahistocronei, 13, 17Problema pozitionarii line, 91Suprafata minima de rotatie, 12, 22

exponentiala cronologicadreapta, 62stanga, 65

extrem local slab, 22extremala, 1, 16, 23, 34

flux, 60hamiltonian, 69

forma Lax, 31formula

Cartan, 67variatiei constantelor, 67

functiegeneratoare, 32integrabila, 64slab masurabila, 64tare masurabila, 64

geodezica, 15, 25

hamiltonian, 29, 69

inegalitate de observabilitate, 43integrala prima, 31integrala Bochner, 64

lagrangean, 1, 11, 13regulat, 17, 23

lift hamiltonian, 71

99

matricede controlabilitate, 43Kalman, 44

metoda variatiei constantelor, 67metrica riemanniana, 15modul

finit generat, 76local finit generat, 76

multime accesibila, 79

orbita, 73

paranteza Poisson, 31, 70principiul de maxim, 47principiul minimei actiuni, 14problema

Bolza, 80de sinteza, 48Lagrange, 80Mayer, 80normala, 85singulara, 85timp optimal, 80

punct conjugat, 19, 24

reprezentarecampuri vectoriale, 61difeomorfisme, 61puncte, 61vectori tangenti, 61

sistemaproximativ controlabil, 4controlabil, 4cu bucla ınchisa, 4, 48hamiltonian, 30, 69nul controlabil, 4stabilizabil, 4

sistem liniaraproximativ controlabil, 41complet stabilizabil, 53controlat, 41controlat, clasificare, 45echivalenta, 45nul controlabil, 41stabilizabil, 53

spatiul controalelor, 4stabilizare, 4starea sistemului, 4subdiferentiala, 30

teoremabang-bang, 58Chow-Rashevsky, 75

de descompunere Kalman, 45Frobenius, 77Jacobi, 36Kalman, 44Nagano-Sussmann, 73Noether, 26orbitei, 73

transformarecanonica, 32

transformare canonica, 32transformata Legendre, 30

unica continuare, 43

variabile conjugate, 29varietate

riemanniana, 15simplectica, 69

100

Bibliografie

[1] A. A. Agrachev, R. V. Gamkrelidze. Exponential representation of flows and a chrono-logical enumeration. Mat. Sb. (N.S.), 107(149)(4):467–532, 639, 1978.

[2] Andrei A. Agrachev, Yuri L. Sachkov. Control theory from the geometric viewpoint,volume 87 of Encyclopaedia of Mathematical Sciences. Springer-Verlag, Berlin, 2004.Control Theory and Optimization, II.

[3] V. I. Arnold. Mathematical methods of classical mechanics, vol. 60, Graduate Textsin Mathematics. Springer-Verlag, New York, 1978.

[4] V. Barbu. Ecuatii diferentiale. Editura Junimea, 1985.[5] V. Barbu. Mathematical methods in optimization of differential systems, vol. 310,

Mathematics and its Applications. Kluwer Academic Publishers Group, Dordrecht,1994. Translated and revised from the 1989 Romanian original.

[6] V. Barbu, Th. Precupanu. Convexitate si optimizare ın spatii Banach. EdituraAcademiei Republicii Socialiste Romania, Bucuresti, 1975.

[7] Viorel Barbu. Metode matematice ın optimizarea sistemelor diferentiale. EdituraAcademiei, Bucuresti, 1989.

[8] Viorel Barbu. Analysis and control of nonlinear infinite-dimensional systems, vol.190, Mathematics in Science and Engineering. Academic Press Inc., Boston, MA,1993.

[9] Viorel Barbu, Catalin Lefter. Optimal control of ordinary differential equations.Canada, A.(ed.) et al., Ordinary differential equations. Vol. II. Amsterdam: Else-vier/North Holland. Handbook of Differential Equations, 1-75, 2005.

[10] R. Bellman. Dynamic programming. Princeton Univeristy Press, Princeton, N. J.,1957.

[11] G. A. Bliss. Calculus of variations. 6th impression. The Carus Mathematical Mono-graphs. No.1. Washington: The Mathematical Association of America; La Salle, Ill.:The Open Court Publishing Company. XIII, 189 p. , 1971.

[12] F. H. Clarke. Generalized gradients and applications. Trans. Amer. Math. Soc.,205:247–262, 1975.

[13] F. H. Clarke. The maximum principle under minimal hypotheses. SIAM J. ControlOptimization, 14(6):1078–1091, 1976.

[14] F. H. Clarke. Optimization and nonsmooth analysis. Canadian Mathematical SocietySeries of Monographs and Advanced Texts. John Wiley & Sons Inc., New York, 1983.A Wiley-Interscience Publication.

[15] F.H. Clarke, R.B. Vinter. The relationship between the maximum principle and dy-namic programming. SIAM J. Control Optim., 25(5):1291–1311, 1987.

[16] E. A. Coddington, N. Levinson. Theory of ordinary differential equations. McGraw-Hill Book Company, Inc., New York-Toronto-London, 1955.

[17] R. Courant, D. Hilbert. Methods of mathematical physics. Vol. II: Partial differentialequations. (Vol. II by R. Courant.). Interscience Publishers (a division of John Wiley& Sons), New York-Lon don, 1962.

[18] M. G. Crandall, L. C. Evans, P.-L. Lions. Some properties of viscosity solutions ofHamilton-Jacobi equations. Trans. Amer. Math. Soc., 282(2):487–502, 1984.

101

[19] M.G. Crandall, H. Ishii, P.-L. Lions. Uniqueness of viscosity solutions of Hamilton-Jacobi equations revisited. J. Math. Soc. Japan, 39:581–596, 1987.

[20] M.G. Crandall, H. Ishii, P.-L. Lions. User’s guide to viscosity solutions of second orderpartial differential equations. Bull. Am. Math. Soc., New Ser., 27(1):1–67, 1992.

[21] M.G. Crandall, P.-L. Lions. Viscosity solutions of Hamilton-Jacobi equations. Trans.Amer. Math. Soc., 277(1):1–42, 1983.

[22] B. A. Dubrovin, A. T. Fomenko, S. P. Novikov. Modern geometry—methods andapplications. Part I, vol. 93, Graduate Texts in Mathematics. Springer-Verlag, NewYork, second edition, 1992. The geometry of surfaces, transformation groups, andfields.

[23] B. A. Dubrovin, A. T. Fomenko, S. P. Novikov. Modern geometry—methods andapplications. Part II, vol. 104, Graduate Texts in Mathematics. Springer-Verlag, NewYork, 1985. The geometry and topology of manifolds.

[24] B. A. Dubrovin, A. T. Fomenko, S. P. Novikov. Modern geometry—methods andapplications. Part III, vol. 124, Graduate Texts in Mathematics. Springer-Verlag, NewYork, 1990. Introduction to homology theory.

[25] W.H. Fleming, R.W. Rishel. Deterministic and stochastic optimal control. Springer-Verlag, Berlin, 1975. Applications of Mathematics, No. 1.

[26] R. Gamkrelidze. Exponential representation of solutions of ordinary differential equa-tions. In Equadiff IV, Proceedings, Prague 1977, pages 118–129. Lecture Notes inMathematics, vol. 703, Springer.

[27] I.M. Gelfand, S.V. Fomin. Calculus of variations. Transl. from the Russian and editedby Richard A. Silverman. Reprint of the 1963 original. Mineola, NY: Dover Publica-tions. vii, 232 p. $ 9.95 , 2000.

[28] Leslie M. Hocking. Optimal control. Oxford Applied Mathematics and ComputingScience Series. The Clarendon Press Oxford University Press, New York, 1991. Anintroduction to the theory with applications.

[29] Alberto Isidori. Nonlinear control systems. Communications and Control EngineeringSeries. Springer-Verlag, Berlin, third edition, 1995.

[30] V. Jurdjevic. Geometric control theory, volume 52 of Cambridge Studies in AdvancedMathematics. Cambridge University Press, Cambridge, 1997.

[31] J.E. Marsden, T. S. Ratiu. Introduction to mechanics and symmetry, volume 17 ofTexts in Applied Mathematics. Springer-Verlag, New York, second edition, 1999. Abasic exposition of classical mechanical systems.

[32] L. Pontriaghin, V. Boltianski, R. Gamkrelidze, E. Michtchenko. Theorie

mathematique des processus optimaux. Editions Mir, Moscow, 1974.[33] L. S. Pontryagin. Ordinary differential equations. Addison-Wesley Publishing Co.,

Inc., Reading, Mass.-Palo Alto, Calif.-London, 1962.[34] R.T. Rockafellar. Convex analysis. Princeton Mathematical Series, No. 28. Princeton

University Press, Princeton, N.J., 1970.[35] I.I. Vrabie. Ecuatii diferentiale. Editura MATRIXROM, Bucuresti, 2000.[36] I.I. Vrabie. C0-semigroups and applications, vol. 191, North-Holland Mathematics

Studies. North-Holland Publishing Co., Amsterdam, 2003.[37] J. Zabczyk. Mathematical control theory: an introduction. Systems & Control: Foun-

dations & Applications. Birkhauser Boston Inc., Boston, MA, 1992.

102