Niveau d'étude
BAC +4
ECTS
5 crédits
Composante
Faculté des sciences
Description
Contenu
Programmation non-linéaire ; fonctions convexes en une et plusieurs variables ; optimisation sans contraintes ; méthode de descente de gradient ; méthode utilisant la hessienne (basée sur la méthode de Newton-Raphson pour résoudre une équation non-linéaire) ; multiplicateurs de Lagrange ; optimisation avec contraintes larges ; méthode de Karush-Kuhn-Tucker ; méthode de pénalisation (du point intérieur).
Pré-requis obligatoires
Notions et contenus
Calcul différentiel en dimension finie, analyse (licence mathématiques L3) ; algèbre linéaire en dimension finie (licence mathématiques L3) ; analyse numérique (licence L3) ; langage Python.
Compétences
Maîtriser le calcul de dérivées, la formule de Taylor au second ordre d’une fonction C2(Rn) (gradient, hessienne) ; connaître et savoir calculer les droites tangentes et les vecteurs normaux à une courbe plane, à une courbe de niveau ; connaître et savoir calculer les plans tangents et les vecteurs normaux à une surface plane, à une surface de niveau ; maîtriser le calcul matriciel et l’interprétation géométrique de l’espace des solutions d’un système linéaire ; connaître les propriétés principales des matrices symétriques réelles
Compétences visées
― Connaître le comportement et la caractérisation des ensembles et des fonctions convexes.
― Pour un problème d’optimisation donné, savoir reconnaître sont type (optimisation avec ou sans contraintes) et savoir choisir la méthode adaptée pour le résoudre parmi les suivantes : multiplicateurs de Lagrange, méthode de Karush-Kuhn-Tucker, méthode de pénalisation (du point intérieur).
― Dans des cas simples, savoir résoudre complètement un problème d’optimisation par mise en œuvre des méthodes précédentes.
― Comprendre et savoir utiliser sous Python des algorithmes standards d’optimisation convexe.
― Savoir résoudre des problèmes pratiques d’optimisation en une dimension (optimisation sans ou avec utilisation de la hessienne) en utilisant le logiciel Python.
Bibliographie
― N. Lauritzen, Undergraduate convexity: From Fourier and Motzkin to Kuhn and Tucker. World Scientific (2013).
― S.G. Nash, A. Sofer, Linear and nonlinear optimization. McGraw-Hill (1996).