ENSTA ParisTech - Université Paris 1 Panthéon-Sorbonne
Master MMMEF - Parcours "Optimisation, risques et recherche opérationnelle"
Année scolaire 2014/2015
.
Cours MNOS
"Optimisation stochastique : méthodes numériques"
English version 
Objectifs
Le but de ce cours est de proposer un cadre de réflexion et des algorithmes numériques permettant d'étendre au cas stochastique la méthodologie de l'optimisation déjà étudiée dans le cadre convexe déterministe.
Le cours se compose de deux parties :
- on s'intéresse dans un premier temps aux problèmes d'optimisation stochastique en boucle ouverte, et on étudie de manière approfondie la méthode du gradient stochastique et ses variantes,
- on s'attaque ensuite aux problèmes en boucle fermée et on étudie, d'une part l'importance de la structure d'information dans ce type de problème, et d'autre part les difficultés liées à la discrétisation de ces problèmes.
On porte durant la première partie du cours une attention particulière aux problèmes d'optimisation de grande taille et aux techniques de décomposition et coordination.
Plan du cours
Le cours a lieu le mardi après-midi de 14h à 17h30, à l'ENSTA ParisTech
(venir à l'ENSTA).
Il est donné en anglais si nécessaire.
-
Séance 1 (13 janvier, salle 2.4.30)
Slides.
Introduction à l'optimisation stochastique : motivations et objectifs
du cours, rappels du cas déterministe et passage au cas stochastique.
Vue d'ensemble de la méthode du gradient stochastique.
-
Séance 2 (20 janvier, salle 2.4.30)
Slides.
Méthode du gradient stochastique : introduction au principe du problème
auxiliaire, convergence dans les cas sans et avec contrainte.
-
Séance 3 (3 février, salle 2.4.12)
Slides.
Travaux dirigés : exercices sur la méthode du gradient stochastique
et présentation des extensions de la méthode au cas des contraintes
en espérance et en probabilité.
-
Séance 4 (10 février, salle 2.4.12)
Slides).
Effet dual en optimisation stochastique : structure d'information,
problématique générale de l'effet dual et application en commande
optimale stochastique.
-
Séance 5 (17 février, salle 2.4.12)
Slides.
Discrétisation : problématique de la discrétisation en optimisation
stochastique, contre-exemple, théorème de convergence.
-
Séance 6 (3 mars, salle 2.4.30).
Contrôle des connaissances.
Notes de cours sur l'optimisation stochastique (en anglais)
Notes de cours sur la méthode du gradient stochastique (en français)
Boîte à outils ''gradient stochastique''
Le but de cette boîte à outils (écrite en langage Scilab) est d'illustrer sur un exemple simple le comportement du gradient stochastique ainsi que sa vitesse de convergence, et de montrer ce qu'apporte la technique de moyennisation.
Page gérée par P. Carpentier
(dernière mise à jour : 18 février 2015)