Niveau d'étude
BAC +4
ECTS
5 crédits
Composante
Faculté des sciences
Description
Contenu :
Programmation non-linéaire ; fonctions convexes en une et plusieurs variables ; optimisation sans contraintes ; méthode de descente de gradient ; méthode utilisant la hessienne (basée sur la méthode de Newton-Raphson pour résoudre une équation non-linéaire) ; multiplicateurs de Lagrange ; optimisation avec contraintes larges ; méthode de Karush-Kuhn-Tucker ; méthode de pénalisation (du point intérieur)
Heures d'enseignement
- CMCours magistral16h
- TDTravaux dirigés12h
- TPTravaux pratique12h
Pré-requis obligatoires
Notions et contenus :
Calcul différentiel en dimension finie, analyse (licence mathématiques L3) ; algèbre linéaire en dimension finie (licence mathématiques L3) ; analyse numérique (licence L3) ; langage Python.
Compétences :
Maîtriser le calcul de dérivées, la formule de Taylor au second ordre d’une fonction C2(Rn) (gradient, hessienne) ; connaître et savoir calculer les droites tangentes et
les vecteurs normaux à une courbe plane, à une courbe de niveau ; connaître et savoir calculer les plans tangents et les vecteurs normaux à une surface plane, à une surface de niveau ; maîtriser le calcul matriciel et l’interprétation géométrique de l’espace des solutions d’un système linéaire ; connaître les propriétés principales des matrices symétriques réelles et des formes quadratiques ; maîtriser le produit scalaire dans Rn ; connaître les rudiments de la programmation sous Python.
Informations complémentaires
Section Moodle du M1 DS.
Compétences visées
― Connaître le comportement et la caractérisation des ensembles et des fonctions convexes.
― Pour un problème d’optimisation donné, savoir reconnaître sont type (optimisation avec ou sans contraintes) et savoir choisir la méthode adaptée pour le résoudre parmi les suivantes : multiplicateurs de Lagrange, méthode de Karush-Kuhn-Tucker, méthode de pénalisation (du point intérieur).
― Dans des cas simples, savoir résoudre complètement un problème d’optimisation par mise en œuvre des méthodes précédentes.
― Comprendre et savoir utiliser sous Python des algorithmes standards d’optimisation convexe.
― Savoir résoudre des problèmes pratiques d’optimisation en une dimension (optimisation sans ou avec utilisation de la hessienne) en utilisant le logiciel Python
Bibliographie
― N. Lauritzen, Undergraduate convexity: From Fourier and Motzkin to Kuhn and Tucker. World Scientific (2013).
― S.G. Nash, A. Sofer, « Linear and nonlinear optimization ». McGraw-Hill (1996)