5.00 crédits
30.0 h + 22.5 h
Q1
Enseignants
Glineur François; Nunes Grapiglia Geovani;
Langue
d'enseignement
d'enseignement
Anglais
Préalables
Ce cours suppose le suivi au préalable d'un cours de base en optimisation (tel que le cours LINMA1702) ainsi que certaines notions élémentaires d'analyse réelle et d'algèbre linéaire (correspondant aux cours LFSAB1101 et LFSAB1102).
Thèmes abordés
Optimisation linéaire, optimisation convexe (y compris l'optimisation structurée conique) ; dualité et applications ; méthodes de point intérieur ; méthodes du premier ordre, méthodes de région de confiance ; pratique d'un langage de modélisation.
Acquis
d'apprentissage
d'apprentissage
A la fin de cette unité d’enseignement, l’étudiant est capable de : | |
1 |
Eu égard au référentiel AA, ce cours contribue au développement, à l'acquisition et à l'évaluation des acquis d'apprentissage suivants : AA1.1, AA1.2, AA1.3 AA2.1, AA2.2, AA2.4, AA2.5 AA5.3, AA5.5 Plus précisément, au terme du cours, l'étudiant sera capable de :
|
Contenu
Modèles : Techniques avancées de modélisation linéaire et convexe ; optimisation conique structurée ; dualité convexe et applications (alternatives, analyse de sensibilité, optimisation robuste) ; dualité Lagrangienne
Méthodes : Méthodes de point intérieur à suivi de chemin pour l'optimisation convexe (barrières auto-concordantes) ; méthodes du premier ordre pour l'optimisation convexe et non-convexe (y compris méthodes stochastiques) ; complexité algorithmique et vitesse de convergence ; découverte et utilisation du langage de modélisation AMPL.
Applications traitées dans des domaines variés tels que l'analyse de données, le machine learning, la finance, l'optimisation de formes ou de structures mécaniques, ou les télécommuncations.
Méthodes : Méthodes de point intérieur à suivi de chemin pour l'optimisation convexe (barrières auto-concordantes) ; méthodes du premier ordre pour l'optimisation convexe et non-convexe (y compris méthodes stochastiques) ; complexité algorithmique et vitesse de convergence ; découverte et utilisation du langage de modélisation AMPL.
Applications traitées dans des domaines variés tels que l'analyse de données, le machine learning, la finance, l'optimisation de formes ou de structures mécaniques, ou les télécommuncations.
Méthodes d'enseignement
Le cours est organisé autour de séances de cours, de séances d'exercices supervisées et de laboratoires informatiques, ainsi que d'une série de devoirs à réaliser par petits groupes.
Modes d'évaluation
des acquis des étudiants
des acquis des étudiants
Les étudiants sont évalués individuellement lors d'un examen écrit sur base des acquis d'aprrentissage énoncés plus haut. En outre les étudiants réalisent une série de devoirs par petits groupes durant le premier quadrimestre, comptabilisés dans la note finale (40%) pour chaque session.
Ressources
en ligne
en ligne
Bibliographie
- Convex Optimization, Stephen Boyd et Lieven Vandenberghe, Cambridge University Press, 2004.
- Lectures on Modern Convex Optimization: Analysis, Algorithms, and Engineering Applications, Aharon Ben-Tal, Arkadi Nemirovski, SIAM 2001.
- Interior point methods for linear optimization, Cornelis Roos, Tamas Terlaky, Jean-Philippe Vial, Springer, 2006.
- Introductory Lectures on Convex Optimization: A Basic Course, Yurii Nesterov, Kluwer, 2004.
- Lectures on Convex Optimization, Y. Nesterov, Springer, 2018
Faculté ou entité
en charge
en charge
MAP
Programmes / formations proposant cette unité d'enseignement (UE)
Intitulé du programme
Sigle
Crédits
Prérequis
Acquis
d'apprentissage
d'apprentissage
Master [120] : ingénieur civil en science des données
Master [120] en sciences mathématiques
Master [120] : ingénieur civil en informatique
Master [120] en science des données, orientation technologies de l'information
Master [120] : ingénieur civil biomédical
Master [120] en sciences informatiques
Master [120] : ingénieur civil en mathématiques appliquées