´paration a ` l’Agre ´gation de Mathe ´matiques Pre TP : Optimisation, m´ ethodes de gradient et m´ ethode des moindres carr´ es ´thode du gradient a ` pas constant 1. Me 1.1. Programmer la m´ethode de gradient `a pas constant. L’appliquer `a la fonction J(x) = x2 + sin(x) d´efinie sur R. 1.2. L’appliquer ´egalement aux fonctions J(x, y) = (x − 1)2 + 10(y − 1)2 et J(x, y) = (x − 1)2 + 10(x2 − y)2 (appel´ee ”Banane de Rosenbrock”) d´efinies sur R2 . 1.3. L’appliquer enfin au probl`eme du r´eseau t´el´ephonique, c’est-`a-dire trouver le minimum de la fonction J : R2 → R, d´efinie par N X J(x) = |x − Ai |, i=1 2 o` u Ai , 1 ≤ i ≤ N sont des points donn´es de R . Prendre, par exemple, N = 4. `me des moindres carre ´s 2. Proble 2.1. Soient n points (xi , yi ), 1 ≤ i ≤ n. Faire un programme qui trouve la droite y = ax+b minimisant n X |yi − (axi + b)|2 , en utilisant la d´ecomposition QR de Scilab. Prendre un exemple et tracer sur un i=1 graphique les points et la droite. 2.2. Mˆeme chose avec une fonction quadratique. 2.3. Programmer la d´ecomposition QR d’une matrice A ∈ GLn (R) `a l’aide du proc´ed´e de GramSchmidt. 2.4. Comment faire si on ajoute au probl`eme de la question 2.1. une contrainte de type y0 = ax0 + b ? ´mentaires 3. Exercices supple 3.1. Appliquer la m´ethode de gradient associ´ee `a la condition d’Armijo (cf TD optimisation) pour la r´esolution du probl`eme suivant (cf texte Public 2009). Soit V : R → R d´efinie par 1 2 V (r) = 12 − 6 , r r on cherche ` a minimiser la fonction X J(X1 , · · · , XN ) = V (||Xi − Xj ||) i<j d´efinie sur R3N , qui donne la r´epartition de N atomes formant une mol´ecule d’´energie minimale. On appliquera la m´ethode de gradient avec N = 3 et N = 4 en partant d’une donn´ee initiale al´eatoire dans [0, 1]3N . Pour trouver le pas de descente `a chaque ´etape, on fera d´ecroˆıtre ρ comme une suite g´eom´etrique jusque’` a ce que la condition d’Armijo J(uk+1 ) < J(uk ) − βρk ||∇J(uk )||22 , (0) avec β = 10−4 soit satisfaite. On initiera la suite g´eom´etrique `a ρk = 1 et on prendra une ||∇J(uk )||2 raison ´egale ` a 0.3. 3.2. Trouver analytiquement le minimum cherch´e dans les cas N = 3 et N = 4. 4. Optimisation sous contraintes Voir le texte Public 2012 sur l’optimisation et la chimie. Penser `a utiliser, si cela si prˆete, la m´ethode de Newton pour r´esoudre un syst`eme non lin´eraire. Par exemple, pour minimiser la fonction J : Rn → R dans le cas de contraintes d’´egalit´e G(x) = (g1 (x), · · · , gp (x)) = 0, 1 2 on r´esout le syst`eme form´e par les ´equations v´erifi´ees par les multiplicateurs de Lagrange, coupl´ees aux contraintes, c’est-` a-dire le syst`eme : p X ∗ ∇J(x ) + λi ∇gi (x∗ ) = 0 i=1 G(x∗ ) = 0 ´fe ´rences 5. Re Ciarlet, Introduction ` a l’analyse num´erique matricielle et ` a l’optimisation, Dunod. Lascaux-Th´eodor, Analyse num´erique matricielle appliqu´ee ` a l’art de l’ing´enieur. Tome 1., Dunod.
© Copyright 2024 ExpyDoc