Calcul des variations

Le calcul des variations (ou calcul variationnel) est, en mathématiques et plus précisément en analyse fonctionnelle, un ensemble de méthodes permettant de minimiser une fonctionnelle. Celle-ci, qui est à valeurs réelles, dépend d'une fonction qui est l'inconnue du problème. Il s'agit donc d'un problème de minimisation dans un espace fonctionnel de dimension infinie.

Le calcul des variations s'est développé depuis le milieu du XVIIIe siècle jusqu'aujourd'hui ; son dernier avatar est la théorie de la commande optimale, datant de la fin des années 1950. Le calcul des variations a des applications dans de nombreux domaines :

  1. L'inconnue étant une courbe paramétrée, on recherche une courbe de longueur minimale (ou extrémale), autrement dit une géodésique ; c'est une question fondamentale en géométrie différentielle ;
  2. L'inconnue étant une surface, on recherche, pour un périmètre donné, la surface d'aire maximale (problème d'isopérimétrie) ;
  3. En physique, le principe de moindre action affirme que les mouvements d'un système matériel se produisent de manière, sinon à minimiser l'action, du moins à rendre celle-ci stationnaire. Ces mouvements peuvent donc être déterminés en minimisant ou en rendant stationnaire cette fonctionnelle, ce qui fait du calcul des variations un outil fondamental pour les physiciens (formulation variationnelle des équations de la physique) ;
  4. Une condition nécessaire d'extremum (ou plus généralement de stationnarité) de la fonctionnelle est l'équation d'Euler-Lagrange. Or, il arrive que le but qu'on se propose soit précisément la résolution d'une équation différentielle qu'on montre (en résolvant le « problème inverse du calcul des variations ») être l'équation d'Euler-Lagrange d'un problème variationnel ; la résolution de celui-ci (effectuée, par exemple, en passant au formalisme hamiltonien) fournit la solution de celle-là.

Les principaux résultats du calcul des variations « classique », qui fait l'objet de cet article sont :

  1. L'équation d'Euler-Lagrange (condition nécessaire du premier ordre) ;
  2. Les conditions de transversalité (dans le cas de problèmes à extrémités variables) ;
  3. Les conditions du second ordre de minimum faible de Legendre et de Jacobi ;
  4. Les conditions du second ordre de minimum fort de Weierstrass ;
  5. La relation entre formalisme lagrangien et le formalisme hamiltonien (transformation de Legendre) ;
  6. Les équations de Hamilton-Jacobi et le théorème de Jacobi ;
  7. Enfin, pour ses applications à la physique, le théorème de Noether.

Historique[modifier | modifier le code]

Sans aller jusqu'au problème de la reine Didon, on peut faire remonter les principes variationnels à Pierre de Fermat (1657) et Christian Huygens (1690) pour l'étude de la propagation de la lumière (principe de Fermat et principe de Huygens-Fresnel). Néanmoins, le calcul des variations est né en 1696, avec le problème de la courbe brachistochrone, posé par Jean Bernoulli (à la suite de Galilée dans son Dialogue sur les deux grands systèmes du monde paru en 1632)[1] ; il s’agit d’un problème de temps minimal (comme l’indique la racine grecque de brachistochrone : « βραχιστος (brachistos) », « le plus court » ; « χρονος (chronos) », « temps »). Ce problème fut résolu par Jean et Jacques Bernoulli, Gottfried Wilhelm Leibniz, Isaac Newton, Guillaume François Antoine de l'Hôpital et Ehrenfried Walther von Tschirnhaus. La solution de Jacques Bernoulli se fondait sur le principe d'Huygens et l'idée du front d'onde ; elle préfigurait l'équation de Hamilton-Jacobi. Celle de Jean Bernoulli était fondée sur une analogie avec la propagation de la lumière et le principe de Fermat, ainsi que la loi de Descartes. Celle de Leibniz, enfin, était fondée sur l'approximation de la courbe par des lignes brisées et était le premier pas vers l'équation d'Euler-Lagrange[2].

Jean Bernoulli (1667-1748).

Le second pas a été accompli par Euler, élève de Jean Bernoulli : Euler a ébauché à partir de considérations géométriques la méthode des « petites variations » en 1744. Joseph-Louis Lagrange a introduit le vocable « calcul des variations » vers 1760[1] et a donné sa forme actuelle à la solution d'Euler. Adrien-Marie Legendre a complété en 1786 l'équation d'Euler-Lagrange, qui est une condition du premier ordre, par la condition du second ordre qui porte son nom. Ces résultats ont été rassemblés par Lagrange dans sa Théorie des fonctions analytiques, parue en 1797 ; Lagrange a également introduit les variables canoniques en 1811 dans sa Mécanique analytique (bien qu'elles aient été attribuées à William Rowan Hamilton par Charles Gustave Jacob Jacobi)[1]. L'équation d'Euler-Lagrange a été étendue au cas du calcul des variations à intégrales multiples en 1834 par Mikhaïl Ostrogradski[3] (généralisant un résultat obtenu en 1831 par Siméon Denis Poisson sur le même sujet). L'équation d'Hamilton-Jacobi a été introduite en premier lieu par Hamilton dans son Second Essay on a General Method in Dynamics en 1835 à l'occasion d'un problème de mécanique. Jacobi a complété la condition du second ordre de Legendre en 1837, avec la théorie des « points conjugués »[4] et a reformulé la contribution de Hamilton, cette fois dans un contexte général, dans ses Vorlesungen über Dynamik (1842). Alfred Clebsch a généralisé en 1858 les résultats de Legendre et de Jacobi[5]. Eduard Heine a établi le lemme fondamental du calcul des variations en 1870[6]. Il revenait à Karl Weierstrass, dans ses cours professés à l'université de Berlin, notamment celui de 1879, de définir la notion d'extremum fort, et d'établir la condition qui porte son nom, ainsi que la « condition d'arrondissement des angles » (également obtenue, indépendamment, par G. Erdmann en 1877[7]). Paul David Gustave du Bois-Reymond[8],[9] a établi son fameux lemme en 1879 : cette extension du lemme fondamental du calcul des variations permet d'établir de manière plus satisfaisante l'équation d'Euler-Lagrange. Enfin, David Hilbert a établi le théorème de l'intégrale invariante (qui clarifie la théorie de Weierstrass) et résolu le problème de Dirichlet[10] (le problème de calcul de variations à intégrales multiples le plus célèbre) en 1900. Les principaux résultats du calcul des variations classique avaient dès lors été obtenus.

Néanmoins, des compléments substantiels ont été apportés au tournant du XXe siècle par Hermann Amandus Schwarz (généralisation du théorème de Weierstrass entre 1898 et 1899) et Adolf Kneser[11] (condition de transversalité, 1900). Oskar Bolza[12] et Harris Hancock[13] ont réalisé indépendamment en 1904 deux synthèses de tous les travaux précédents ; leur lecture est encore très instructive. Christian Gustav Adolph Mayer (en) a introduit en 1905 les « champs de Mayer » qui généralisent les champs d'extrémales de Weierstrass ; il a également réalisé une étude fine des « arcs anormaux ». William Fogg Osgood[14] et Jacques Hadamard[15],[16] ont continué d'étudier entre 1900 et 1906 le calcul des variations avec intégrale multiple. On peut encore citer les contributions de la première moitié du XXe siècle dues à Emmy Noether (théorème de Noether[17] : obtenu en 1918, il est la formulation mathématique des lois de conservation en physique - de l'énergie, de l'impulsion, du moment cinétique, etc.) ; à Alfréd Haar (le lemme de Haar, datant des années 1926-1932, peut être vu comme une extension du lemme de Du Bois-Reymond au cas d'intégrales multiples)[18],[19] ; et à Constantin Carathéodory[20] (Hermann Boerner (de) parlait de l'approche de Carathéodory en 1953 comme « der Königsweg der Variationsrechnung », littéralement « la voie royale du calcul des variations »). Gilbert Ames Bliss et ses élèves, dont Magnus Hestenes, ont réalisé pendant plus de vingt ans une étude détaillée du problème de Bolza, étude dont les résultats ont été rassemblés dans la vaste synthèse que sont les Lectures on the Calculus of Variations[1] de Bliss. Mentionnons encore George David Birkhoff et son élève Marston Morse[21] (théorie de Morse). La théorie de Morse a été généralisée par Richard Palais et Stephen Smale en 1964 (condition de compacité de Palais-Smale)[22],[23].

Le calcul des variations a connu un profond renouveau dans les années 1950 avec le développement de la théorie de la commande optimale, sous l'impulsion de Lev Pontriaguine[24] et Richard Bellman[25],[26]. Le formalisme de Pontryagin et de Bellman est une extension et une amélioration du formalisme hamiltonien classique, et clarifie la formulation de Carathéodory[27]. On peut encore mentionner les contributions, postérieures à 1960, de Jacques-Louis Lions, Ivar Ekeland et Jean-Pierre Aubin. Le calcul des variations « non lisse » développé vers la fin des années 1980 par Frank H. Clarke, est un apport significatif[28]. Le calcul des variations reste en mathématiques un domaine fort actif. Les mathématiciens qui ont contribué à son développement sont extrêmement nombreux (ils comprennent la plupart des grands noms du XIXe siècle et du début du XXe, et même le célèbre philosophe Edmund Husserl, élève des mathématiciens Leo Königsberger, Leopold Kronecker et Karl Weierstrass ; Husserl a soutenu en 1883 sa thèse Beiträge zur Variationsrechnung). N'ont été mentionnés plus haut que certains parmi les plus notables de ces mathématiciens.

Un domaine d'application important du calcul des variations est l'étude des géodésiques sur une variété munie d'une connexion affine, et plus particulièrement des géodésiques minimales dans un espace de Riemann[29]. L'étude locale des géodésiques minimales sur une surface a été réalisée, à la suite de Carl Friedrich Gauss, par Jacobi (théorie des points conjugués) et Pierre-Ossian Bonnet (qui a démontré le résultat que Jacobi avait énoncé sans démonstration)[30]. Ces travaux ont été complétés par Kneser, Tullio Levi-Civita et Élie Cartan (ce dernier ayant donné de l'équation géodésique sa forme intrinsèque[31]). Le problème global n'a cessé d'être à l'ordre du jour et a donné naissance à la théorie de Morse, déjà évoquée.

Problèmes fondamentaux du calcul des variations[modifier | modifier le code]

Problème à extrémités fixes[modifier | modifier le code]

C'est le problème le plus simple, parfois appelé problème de Lagrange.

Soit [t0 , tf] un intervalle de la droite réelle et Ω1, Ω2 des ouverts non vides dans un espace vectoriel normé X qu'on peut supposer de dimension finie. Soit d'autre part

une fonction appelée lagrangien, supposée continûment différentiable (en abrégé : de classe ainsi que sa différentielle partielle .

Le problème de Lagrange consiste à déterminer (si elle existe) une fonction suffisamment régulière

  • telle que x(t0) = x0 et x(tf) = xf, où x0 et xf sont des points fixés de Ω1,
  • avec ,
  • et minimisant la fonctionnelle J définie par
.

Problème à extrémités variables[modifier | modifier le code]

Nous considérons maintenant un problème plus général où ni les bornes d'intégration t0 et tf, ni les points x0 et xf, ne sont fixés. La fonctionnelle à minimiser est

avec les contraintes , , où et sont des sous-variétés de , désignant un intervalle compact de la droite réelle. La fonction vérifie les mêmes hypothèses que ci-dessus et la fonction K est continûment différentiable.

La fonctionnelle ci-dessus est mixte (du fait de la présence du terme K(t0 , x0 , tf , xf)) et le problème correspondant est appelé le problème de Bolza. On se ramène au cas d'une fonctionnelle intégrale (problème de Lagrange avec extrémités variables) en définissant une inconnue supplémentaire y définie à une constante près par , puisque alors J = J(x(.),y(.)))

.

On peut aussi se ramener au cas d'un problème de la forme dite du problème de Mayer

en posant et

.

Minimum faible et minimum fort[modifier | modifier le code]

Si, dans ce qui précède, on recherche des minima globaux, le problème est en général sans solution. On est donc conduit à rechercher des minima locaux. Par définition, minimise localement J(x) si pour toute fonction suffisamment régulière x dans un voisinage suffisamment petit de . Il reste à préciser quel type de régularité on impose à et, puisqu'on a ici affaire à un problème en dimension infinie, par quelle norme on définit les voisinages de 0.

Une première possibilité consiste à imposer à d'être de classe , c'est-à-dire continûment dérivable, donc d'appartenir à l'espace des fonctions continûment dérivables de dans X. On peut munir cet espace de la norme

qui en fait un espace de Banach qu'on notera .

Une autre possibilité consiste à imposer seulement à d'être continûment dérivable par morceaux, c'est-à-dire continue, et ayant une dérivée continue sauf en un nombre fini de points, et ayant en ces points une dérivée à gauche et une dérivée à droite. Soit l'espace des fonctions continûment dérivables par morceaux par morceaux de dans X. On peut munir cet espace de la norme

qui en fait un espace vectoriel normé, non complet, qu'on notera .

Définition — Un minimum local de J sur (resp. ) est appelé un minimum local faible (resp. fort).

On montre que, sous les hypothèses qui ont été précisées, la fonction est différentiable sur , mais non sur . Il s'ensuit que la minimisation faible relève du calcul différentiel classique dans un espace de Banach, ce qui n'est pas le cas de la minimisation forte.

Remarque sur la notion de minimum fort[modifier | modifier le code]

Pour la formulation de la notion de minimum fort, d'autres espaces fonctionnels que sont possibles : on peut notamment le remplacer par , l'espace des fonctions absolument continues de dans X (on a ) ; dans certains cas, J(x(.)) admet un minimum sur mais non sur comme l'a montré Leonida Tonelli en 1915[32]. Néanmoins, nous nous limiterons dans ce qui suit à la définition donnée plus haut qui permet d'éviter quelques difficultés.

Notons qu'une fonction continûment dérivable qui fournit un minimum local fort fournit nécessairement un minimum local faible. Par suite, pour une fonction continûment dérivable, une condition nécessaire de minimum local faible (voir, ci-dessous, la partie (A) du théorème de Jacobi-Weierstrass) est également une condition nécessaire de minimum local fort. Au contraire, une condition suffisante de minimum local fort (voir, ci-dessous, la condition suffisante de minimum fort de Weierstrass) est également une condition suffisante de minimum local faible, compte tenu du schéma logique, valide pour une fonction de classe  :

condition suffisante de minimum fort ⇒ minimum fort ⇒ minimum faible ⇒ condition nécessaire de minimum faible

Problèmes isopérimétriques[modifier | modifier le code]

Ces problèmes consistent à minimiser une fonctionnelle J0(x(.)) sous les contraintes avec

,

toutes les fonctions vérifiant les mêmes hypothèses que la fonction ci-dessus.

Problèmes à intégrale multiple[modifier | modifier le code]

Soit D une variété de dimension n, éventuellement à bord, et

,

x étant la variable (plus haut notée t), u = u(.) : DX la fonction inconnue (plus haut notée x), où X est un espace vectoriel normé, sa différentielle, et dx = dx1 ... dxn la mesure de Lebesgue. On suppose de classe . Le problème considéré ici consiste à déterminer, si elle existe, une fonction de classe qui minimise J(u)[33].

Formalisme lagrangien[modifier | modifier le code]

Condition du premier ordre[modifier | modifier le code]

Première variation[modifier | modifier le code]

Considérons le problème de Lagrange à extrémités fixes (le problème à extrémités variables conduit à ajouter les conditions de transversalité : voir, infra, le § Pseudo-hamiltonien et principe du maximum ; conditions de transversalité). Soit εh un accroissement de x, où h est une fonction continûment dérivable telle que h(t0) = h(tf) = 0 (on notera ci-dessous l'espace vectoriel formé des h vérifiant ces conditions) et ε est un nombre réel. Il en résulte un accroissement ε δJ(x ; h) de J(x), en négligeant les termes du second ordre en ε pour ε tendant vers 0. En effet, un développement limité au premier ordre donne

δJ(x ; h) est la « première variation » de J.

Leonhard Euler (1707-1783).

Dérivée de Gateaux et condition d'Euler[modifier | modifier le code]

Toute fonction J, définie dans un voisinage de x, et pour laquelle un tel développement limité existe est dite « dérivable au sens de Gateaux dans la direction de h », et par définition

est la « dérivée de Gateaux » de J au point x dans la direction de h. L'application est homogène (c.-à-d. DGJ(x)(αh) = αDGJ(x)(h) pour tout réel α) mais n'est pas linéaire en général[34].

Condition d'Euler — Soit Ω un ouvert d'un espace vectoriel normé (ou, plus généralement, d'un espace vectoriel topologique) et J une fonction dérivable au sens de Gateaux dans toutes les directions en un point . Pour que x* minimise J(x) dans Ω, il est nécessaire que soit vérifiée la condition d'Euler (condition du premier ordre, ou de stationnarité de x* pour J) :
.

Équation d'Euler-Lagrange[modifier | modifier le code]

On a d'autre part

et on en déduit le théorème suivant :

Équation d'Euler-Lagrange — Soit x* une fonction de classe . La condition de stationnarité DG J(x*) = 0 est satisfaite si, et seulement si x* est une extrémale, c'est-à-dire est solution de l'équation d'Euler-Lagrange

(EL)
.

Il s'agit donc d'une condition nécessaire pour que J(x*) soit un minimum (ou maximum) local faible de J

Applications : voir #Géodésiques d'une variété riemannienne. L'équation d'Euler-Lagrange permet aussi de déterminer la courbe brachistochrone.

Joseph-Louis Lagrange (1736-1813).

Remarques sur l'équation d'Euler-Lagrange[modifier | modifier le code]

  1. Une démonstration classique de cette équation (présentée dans l'article lié) utilise une intégration par parties et le lemme fondamental du calcul des variations, mais n'est licite que si et sont de classe C1. C'est pourquoi l'utilisation du lemme de du Bois-Reymond, pour lequel il suffit de supposer x* et de classe C1, est préférable.
  2. Pour que la fonction fournisse un minimum local fort, il est encore nécessaire, comme on le verra plus loin (#Pseudo-hamiltonien et principe du maximum ; conditions de transversalité), qu'elle soit solution de l'équation d'Euler-Lagrange dans chaque intervalle dans lequel elle est continûment dérivable. Si x* est seulement supposée absolument continue, l'équation d'Euler-Lagrange doit être vérifiée presque partout.

Cas des problèmes isopérimétriques[modifier | modifier le code]

On introduit des multiplicateurs de Lagrange , et on forme la quantité (appelée Lagrangien, mais dans un sens qui n'est pas à confondre avec le précédent, d'où la majuscule employée)

avec

.

Une condition nécessaire pour que x* soit solution du problème isométrique est qu'il existe des multiplicateurs de Lagrange comme ci-dessus, non tous nuls, tels que x* rende stationnaire J(x)[35]. Cette stationnarité équivaut à la satisfaction de la même équation d'Euler-Lagrange que plus haut.

Application : voir #Problème de Didon.

Remarque sur les multiplicateurs de Lagrange[modifier | modifier le code]

Si les différentielles DJi(x*) (i = 1,...,m) sont linéairement indépendantes, on a nécessairement λ0 = 1 : c'est alors la formulation classique du théorème des multiplicateurs de Lagrange.

Cas des problèmes à intégrale multiple[modifier | modifier le code]

Avec les notations introduites lors de la position du problème (§ Problèmes à intégrale multiple), une condition nécessaire de stationnarité, si l'on se restreint aux extrémales de classe (pour les extrémales de classe , on utilisera le lemme de Haar) est donnée par l'équation d'Ostrogradski (généralisation de l'équation d'Euler-Lagrange) :

Mikhaïl Ostrogradski (1801-1862).

désigne la différentielle de u ; on peut également noter cette différentielle , où est l'espace des applications linéaires de dans X. Lorsque , l'équation d'Ostrogradski peut s'expliciter comme suit :

Les fonctions u vérifiant ces conditions sont de nouveau appelées extrémales.

Application : voir le § Problème de Dirichlet.

Conditions du second ordre de minimum faible[modifier | modifier le code]

Désormais nous considérons le problème de Lagrange et nous supposons de classe , ainsi que ses différentielles partielles et , et X. On recherche dans ce paragraphe une des conditions du second ordre de minimum local faible.

Carl Gustav Jakob Jacobi (1804-1851).

Seconde variation[modifier | modifier le code]

Soit x* une extrémale, pour laquelle on a donc, par définition, δJ(x*) = 0, et faisons un développement limité au second ordre de J(x* + εh). Sous l'hypothèse ci-dessus, la différentielle seconde de J existe au point x* (où est l'espace des formes bilinéaires continues sur ) et

δ2J(x* ; h) = 1/2D2J(x*)•(h, h). La quantité δ2J(x* ; h) est appelée la seconde variation de J au point x*. Il vient

où pour abréger on a écrit pour , etc. En intégrant les second terme par parties on obtient

soit donc

avec
,
.

Condition de Legendre[modifier | modifier le code]

La quantité δ2J(x* ; h) doit être non négative pour tout accroissement h de classe tel que h(t0) = h(tf) = 0. On montre[37] qu'une condition nécessaire pour qu'il en soit ainsi est que la forme bilinéaire symétrique P(t) (définissant le premier terme de l'intégrale ci-dessus) soit semi-définie positive, ce qu'on écrira sous la forme  : c'est la condition faible de Legendre (ou de Legendre-Clebsch). En effet, dans l'intégrale δ2J(x* ; h), le terme

« prédomine », dans le sens où l'on peut construire des fonctions réelles, définies dans [t0 , tf], nulles en t0 et tf, de petite amplitude et dont la dérivée est de grande amplitude (alors qu'une fonction nulle en t0 et tf, dont la dérivée est de petite amplitude sur [t0 , tf], est nécessairement de petite amplitude).

Remarque : cas du calcul des variations à intégrale multiple[modifier | modifier le code]

(Voir les §§ Problèmes à intégrale multiple et Cas des problèmes à intégrale multiple). La condition faible de Legendre, qui porte alors le nom de condition de Legendre-Hadamard, s'écrit

.

Condition de Jacobi[modifier | modifier le code]

Reste que les deux termes de l'intégrale doivent être considérés simultanément. Si h est la fonction nulle, il est clair que δ2J(x* ; h) = 0. Par conséquent, cette fonction nulle doit minimiser δ2J(x* ; h), avec les conditions aux limites h(t0) = h(tf) = 0, dans un voisinage de 0 dans (« problème de minimisation secondaire »). Ceci conduit à étudier l'équation d'Euler-Lagrange (EL) associée à ce problème secondaire. Il s'agit de l'équation de Jacobi

.

Définition — Un point τ ∈ ]t0 , tf] est dit conjugué à t0 (ou : x*(τ) est dit conjugué à x*(t0)) si l'équation de Jacobi (J) admet une solution telle que et .

Dans le cas usuel (et seulement envisagé par Jacobi), où det P(τ) ≠ 0, cette dernière condition équivaut à .

S'il existe un point conjugué à t0 dans l'intervalle ]t0 , tf[, il existe une solution non nulle h rendant stationnaire δ2J(x* ; h). Alors pour tout ε > 0, ε h rend stationnaire δ2J(x* ; h).

On montre le résultat suivant dans le cas où la condition forte de Legendre P(t) > 0, t ∈ [t0 , tf], est vérifiée :

L'accroissement nul h = 0 donne un minimum local faible strict pour δ2J(x* ; h) parmi les accroissements h de classe tels que h(t0) = h(tf) = 0, si et seulement si la condition forte de Jacobi est satisfaite : il n'existe pas de point conjugué à t0 dans l'intervalle [t0 , tf].

Weierstrass a obtenu en 1877 le théorème suivant[38] :

Théorème de Jacobi-Weierstrass —  (A) Une condition nécessaire pour que x* donne un minimum local faible pour le problème de Lagrange à extrémités fixes est que

(I) L'équation d'Euler-Lagrange (EL) soit vérifiée, ainsi que les conditions aux limites x*(t0) = x0, x*(tf) = xf ;
(II) La condition faible de Legendre P(t) ≥ 0, ∀ t ∈ [t0 , tf] soit vérifiée ;
(III) La condition faible de Jacobi soit satisfaite : « Il n'y a pas de point conjugué à t0 dans l'intervalle ]t0 , tf[ ».

(B) Une condition suffisante pour que x* donne un minimum local faible strict pour le problème de Lagrange à extrémités fixes est que

(I') : condition identique à (I) ;
(II') La condition forte de Legendre P(t) > 0, ∀ t ∈ [t0 , tf] (où P(t) > 0 signifie que la forme bilinéaire symétrique P(t) est définie positive) soit vérifiée ;
(III') La condition forte de Jacobi soit satisfaite : « Il n'y a pas de point conjugué à t0 dans l'intervalle [t0 , tf] ».

Application : voir #Principe d'action stationnaire de Hamilton.

Remarque : cas d'un intégrande ne dépendant pas de l'inconnue[modifier | modifier le code]

Supposons que . La condition forte de Jacobi devient alors triviale si la condition forte de Legendre est vérifiée. Par suite, une condition suffisante pour que x* donne un minimum local faible strict est que la condition d'Euler-Lagrange et la condition forte de Legendre soient toutes deux satisfaites.

Ce résultat est encore valable dans le cas des problèmes à intégrale multiple (§§ Problèmes à intégrale multiple et Cas des problèmes à intégrale multiple) lorsque [39]. Comme application, voir le § Problème de Dirichlet.

Remarque : cas convexe[modifier | modifier le code]

Supposons que la condition forte de Legendre soit satisfaite (P(t) > 0) et que de plus Q(t) ≥ 0, ceci pour tout t ∈ [t0 , tf]. Alors il est clair que δ2J(x* ; h) > 0 pour tout h ≠ 0 de classe tel que h(t0) = h(tf) = 0. Par suite, il n'y a pas de point conjugué à t0 dans l'intervalle [t0 , tf], et un minimum local faible strict de J est atteint au point x*. Ceci généralise la remarque précédente.

Remarque : cas convexe avec intégrale multiple[modifier | modifier le code]

Dans le cas d'un problème à intégrale multiple, considérons la forme bilinéaire symétrique

avec les notations déjà introduites dans ce cas (i.e. ). Supposons cette forme définie positive pour tout . Alors la variation seconde de J est strictement positive pour tout accroissement non nul et suffisamment petit h de u* dans , s'annulant sur la frontière de D, et par conséquent un minimum local faible strict est obtenu pour u = u*[40].

Conditions de minimum fort[modifier | modifier le code]

Fonction de Weierstrass[modifier | modifier le code]

Karl Weierstrass (1815-1897).

Considérons de nouveau le problème de Lagrange à extrémités fixes, en supposant de classe , mais cherchons cette fois un minimum local fort. Définissons en fonction du lagrangien la fonction de Weierstrass ou « excessus »

.

La condition nécessaire de Weierstrass peut s'obtenir soit directement, grâce aux « variations en aiguille » introduites par Weierstrass[41], soit, comme on va le voir plus loin, comme une conséquence du principe du maximum de la commande optimale.

Condition nécessaire de minimum fort —  Pour que fournisse un minimum local fort, il faut que les conditions nécessaires (I), (II), (III) de minimum faible du théorème de Jacobi soient satisfaites, ainsi que la condition faible de Weierstrass (IV) : pour tout t ∈ [t0 , tf],

.

La condition suffisante de Weierstrass est une conséquence directe sa formule intégrale, explicitée et démontrée plus bas en utilisant les apports de Hilbert, de Poincaré et de E. Cartan. Cette relation fondamentale conduit au résultat suivant :

Condition suffisante de minimum fort (Weierstrass, 1879) —  Soit une courbe admissible, , et V un voisinage de Γ dans . Pour que x* fournisse un minimum local fort, il suffit que les conditions suffisantes (I), (II'), (III') de minimum faible du théorème de Jacobi-Weierstrass soient satisfaite, ainsi que la condition forte de Weierstrass (IV') :

Si de plus pour , ce minimum est strict.

Remarque sur la condition suffisante de minimum fort[modifier | modifier le code]

La formule de Taylor d'ordre 2 avec reste de Lagrange s'écrit

θ ∈ ]0 ; 1[.

En prenant θ = w – u, on voit donc que la condition forte de Weierstrass est satisfaite si

(condition suffisante de minimum fort). De plus, si

(condition suffisante de minimum fort strict).

Formalisme hamiltonien[modifier | modifier le code]

On considère à présent le problème à extrémités variables. Il suffit, comme on l'a vu, de considérer le problème de Lagrange, puisque celui de Bolza s'y ramène (cela simplifie les conditions de transversalité ci-dessous). Les fonctions et sont supposées continûment différentiables et X est supposé de dimension finie.

Pseudo-hamiltonien et principe du maximum ; conditions de transversalité[modifier | modifier le code]

On appelle pseudo-hamiltonien la fonction

(où X' est le dual de X) définie par

.

(où est le crochet de dualité).

Le dual de est identifié avec . Soit les deux équations canoniques de Hamilton

,
.

Notons l'espace tangent à la variété au point et l'orthogonal de dans , c'est-à-dire l'ensemble des formes linéaires continues telles que . On définit de même et

On appelle conditions de transversalité les relations

,
,

La première d'entre elles est justifiée plus loin. Le résultat suivant est une conséquence du principe du maximum de la commande optimale[24] :

Principe du maximum du calcul des variations — Pour que x* (supposée continument dérivable par morceaux) fournisse un minimum local fort, il est nécessaire qu'il existe un vecteur adjoint pour lequel les deux équations canoniques et les conditions de transversalité soient satisfaites, que la fonction soit continue, et que le principe du maximum

soit vérifié en tout point auquel x* est continûment dérivable[42]. On a en tout point où et p'* sont continues (donc sauf en un nombre fini de points) l'égalité (E) :

et en particulier, si le pseudo-hamiltonien ne dépend pas explicitement du temps,

.

Cas particuliers des conditions de transversalité[modifier | modifier le code]

Nous supposons maintenant que la variété soit de la forme et sont des sous-variétés de et de X, respectivement. L'équation de transversalité s'écrit donc

(a) ,
(b) .

Dans le cas d'un instant final libre, on a , par conséquent et (a) devient

(a')

alors que dans le cas d'un instant final fixé, et , donc (a) est trivialement vérifiée. Dans les deux cas on a une équation: (a') dans le premier, tf* = tf dans le second.

Dans le cas d'un état final libre, on a , par conséquent et (b) devient

(b') .

Dans le cas d'un état final fixé, et , donc (b) est trivialement vérifiée. Dans les deux cas on a n équations, si X est de dimension n : (b') dans le premier, xf* = xf dans le second.

Le même raisonnement s'applique évidemment pour la condition initiale.

Équation d'Euler-Lagrange, conditions de Legendre et de Weierstrass[modifier | modifier le code]

Montrons que les conditions nécessaires de minimum local fort données plus haut, à l'exception de la condition de Jacobi, sont des conséquences du principe du maximum du calcul des variations, et ceci bien qu'on se place ici dans le contexte plus général d'extrémités éventuellement variables (la condition de Jacobi classique n'est valide que dans le cas d'extrémités fixes envisagé plus haut ; néanmoins une condition analogue, faisant intervenir la notion de point focal, due à Kneser, a été obtenue dans le cas d'une extrémité finale libre[12],[43]).

Les équations canoniques s'écrivent encore

,
.

Le principe du maximum implique au premier ordre l'équation d'Euler (ou de stationnarité)

,

autrement dit, en utilisant la première équation canonique,

.

La seconde équation canonique implique donc maintenant l'équation d'Euler-Lagrange (EL) en chaque point auquel x* est continûment dérivable. D'autre part, on a

.

Par conséquent, en utilisant l'expression de p'*(t) qui vient d'être obtenue, on voit que le principe du maximum implique la condition faible de Weierstrass. Celle-ci à son tour implique la condition faible de Legendre.

Conditions d'arrondissement des angles de Weierstrass-Erdmann[modifier | modifier le code]

Le principe du maximum implique que les fonctions

,

sont continues. Ce sont les deux conditions d'arrondissement des angles de Weierstrass–Erdmann (en).

On dit que le lagrangien est régulier (au sens de Hilbert) si

Corollaire — Supposons et le lagrangien régulier. Alors toute fonction x* (supposée continûment dérivable par morceaux) donnant un minimum fort est continûment dérivable.

Différentiabilité des extrémales[modifier | modifier le code]

Hilbert a montré le résultat suivant en utilisant le théorème des fonctions implicites : si de classe et le lagrangien est régulier, alors une extrémale x* de classe sur un intervalle est de classe sur cet intervalle[1]. Par conséquent, dans les conditions du corollaire ci-dessus, x* est de classe