• Votre sélection est vide.

    Enregistrez les diplômes, parcours ou enseignements de votre choix.

Optimisation Non-Linéaire

  • Niveau d'étude

    BAC +4

  • ECTS

    5 crédits

  • Composante

    Faculté des sciences

Description

Contenu :

Programmation non-linéaire ; fonctions convexes en une et plusieurs variables ; optimisation sans contraintes ; méthode de descente de gradient ; méthode utilisant la hessienne (basée sur la méthode de Newton-Raphson pour résoudre une équation non-linéaire) ; multiplicateurs de Lagrange ; optimisation avec contraintes larges ; méthode de Karush-Kuhn-Tucker ; méthode de pénalisation (du point intérieur)

Lire plus

Heures d'enseignement

  • CMCours magistral16h
  • TDTravaux dirigés12h
  • TPTravaux pratique12h

Pré-requis obligatoires

Notions et contenus :

Calcul différentiel en dimension finie, analyse (licence mathématiques L3) ; algèbre linéaire en dimension finie (licence mathématiques L3) ; analyse numérique (licence L3) ; langage Python.

Compétences :

Maîtriser le calcul de dérivées, la formule de Taylor au second ordre d’une fonction C2(Rn) (gradient, hessienne) ; connaître et savoir calculer les droites tangentes et
les vecteurs normaux à une courbe plane, à une courbe de niveau ; connaître et savoir calculer les plans tangents et les vecteurs normaux à une surface plane, à une surface de niveau ; maîtriser le calcul matriciel et l’interprétation géométrique de l’espace des solutions d’un système linéaire ; connaître les propriétés principales des matrices symétriques réelles et des formes quadratiques ; maîtriser le produit scalaire dans Rn ; connaître les rudiments de la programmation sous Python.

Lire plus

Informations complémentaires

Section Moodle du M1 DS. 

Lire plus

Compétences visées

 ― Connaître le comportement et la caractérisation des ensembles et des fonctions convexes.
― Pour un problème d’optimisation donné, savoir reconnaître sont type (optimisation avec ou sans contraintes) et savoir choisir la méthode adaptée pour le résoudre parmi les suivantes : multiplicateurs de Lagrange, méthode de Karush-Kuhn-Tucker, méthode de pénalisation (du point intérieur).
― Dans des cas simples, savoir résoudre complètement un problème d’optimisation par mise en œuvre des méthodes précédentes.
― Comprendre et savoir utiliser sous Python des algorithmes standards d’optimisation convexe.
― Savoir résoudre des problèmes pratiques d’optimisation en une dimension (optimisation sans ou avec utilisation de la hessienne) en utilisant le logiciel Python

Lire plus

Bibliographie

 ― N. Lauritzen, Undergraduate convexity: From Fourier and Motzkin to Kuhn and Tucker. World Scientific (2013).
― S.G. Nash, A. Sofer, « Linear and nonlinear optimization ». McGraw-Hill (1996) 

Lire plus