• Votre sélection est vide.

    Enregistrez les diplômes, parcours ou enseignements de votre choix.

Optimisation Non-Linéaire

  • ECTS

    5 crédits

  • Composante

    Faculté des sciences

Description

Programmation non-linéaire ; fonctions convexes en une et plusieurs variables ; optimisation sans contraintes ; méthode de descente de gradient ; méthode utilisant la hessienne (basée sur la méthode de Newton-Raphson pour résoudre une équation non-linéaire) ; multiplicateurs de Lagrange ; optimisation avec contraintes larges ; méthode de Karush-Kuhn-Tucker ; méthode de pénalisation (du point intérieur). 

Lire plus

Objectifs

― Connaître le comportement et la caractérisation des ensembles et des fonctions convexes. 

― Pour un problème d’optimisation donné, savoir reconnaître son type (optimisation avec ou sans contraintes) et savoir choisir la méthode adaptée pour le résoudre parmi les suivantes : multiplicateurs de Lagrange, méthode de Karush-Kuhn-Tucker, méthode de pénalisation (du point intérieur). 

― Dans des cas simples, savoir résoudre complètement un problème d’optimisation par mise en œuvre des méthodes précédentes. 

― Comprendre et savoir utiliser sous Python des algorithmes standards d’optimisation convexe. 

― Savoir résoudre des problèmes pratiques d’optimisation en une dimension (optimisation sans ou avec utilisation de la hessienne) en utilisant le logiciel Python. 

Lire plus

Heures d'enseignement

  • CM - Optimisation Non-LinéaireCours magistral16h
  • TD - Optimisation Non-LinéaireTravaux dirigés12h
  • TP - Optimisation Non-LinéaireTravaux pratique12h

Pré-requis nécessaires

Maîtriser le calcul de dérivées, la formule de Taylor au second ordre d’une fonction C2(Rn) (gradient, hessienne) ; connaître et savoir calculer les droites tangentes et les vecteurs normaux à une courbe plane, à une courbe de niveau ; connaître et savoir calculer les plans tangents et les vecteurs normaux à une surface plane, à une surface de niveau ; maîtriser le calcul matriciel et l’interprétation géométrique de l’espace des solutions d’un système linéaire ; connaître les propriétés principales des matrices symétriques réelles et des formes quadratiques ; maîtriser le produit scalaire dans Rn ; connaître les rudiments de la programmation sous Python.

Calcul différentiel en dimension finie, analyse (licence mathématiques L3) ; algèbre linéaire en dimension finie (licence mathématiques L3) ; analyse numérique (licence L3) ; langage Python. 

Lire plus

Informations complémentaires

Section Moodle du M1 DS. 

Lire plus

Bibliographie

― N. Lauritzen, Undergraduate convexity: From Fourier and Motzkin to Kuhn and Tucker. World Scientific (2013). 

― S.G. Nash, A. Sofer, Linear and nonlinear optimization. McGraw-Hill (1996). 

Lire plus