Master Parisien de Recherche en Informatique - M2
2-17-1 : Fondements sur la modélisation des réseaux
Description du cours
Suivre ce lien
Intervenants
Sous-ensemble des personnes suivantes :
Francois Baccelli,
Anne Bouillard,
Bruno Gaujal,
Alain Jean-Marie,
Jean Mairesse,
Laurent Massoulié
Planning du cours 2012-2013
Les cours ont lieu le lundi de 13.15 à 15.45. Lieu :
Chevaleret, salle 1E01 jusqu'à fin 2012 (séance 1 et 2); Batiment Sophie
Germain, salle 108, à partir de début 2013
(séance 3 à 10).
- 10 décembre : Controle optimal I
- 17 décembre : Controle optimal II
- 7 janvier : Controle optimal III
- 14 janvier : Réseaux markoviens I
- 21 janvier : Réseaux markoviens II
- 28 janvier : Réseaux markoviens III
- 4 février : Théorie des jeux I
- 11 février : Théorie des jeux II
- 18 février : Optimisation I
- 25 février : Optimisation II
- 4 mars : Pas de cours
- 11 mars : Examen (2h)
Résumé des cours 2012-2013
- 1. Controle optimal pour les réseaux (B. Gaujal)
Equation de Bellman et programmation dynamique
Application au problème du routage
(La "c-mu rule" et ses contre-exemples,
les suites billards, politiques d'index).
- 2. Réseaux markoviens à forme produit (J. Mairesse)
Méthodologie de l'évaluation de la qualité de service dans les
réseaux. Théorie des files d'attente, principes généraux et
métriques. Chaines de Markov en temps continu. Probabilités
transitoires et stationnaires. Réversibilité. Files d'attente
Markoviennes. Réseaux de files d'attente a forme produit: réseaux de
Jackson et Kelly.
- 3. Théorie des jeux dans les réseaux (B. Gaujal)
Jeux atomiques et jeux non-atomiques (équilibres de Nash/Wardrop)
Prix de l'anachie dans les jeux de routage, paradoxe de Braess.
La neutralité de l'internet ?
- 4. Optimisation et chaines de Markov (J. Mairesse)
Echantillonage de Gibbs.
Chaine de Markov perturbées.
Application au routage.
Au-dela de Gibbs?
Examen
Support de cours - Feuilles d'exercice
- Réseaux Markoviens
Le support de cours d'Alain Jean-Marie (LIRMM, Montpellier), version
2010-2011 : suivez
ce lien.
Un autre support de cours de Philippe Bougerol (Laboratoire de
Probabilités, Paris 6). Le matériel est
globalement le même que celui du cours, mais la présentation
est différente.
Suivez ce
lien.
D'autres références :
Livre disponible en ligne :
Reversibility
and Stochastic Networks. F.P. Kelly, Wiley, 1979. (En
particulier les chapitres 1, 2, 3 et 4.)
Livres non-disponibles en ligne :
Perron-Frobenius : "Non-negative matrices and Markiv chains",
E. Seneta, Springer, 1981.
Markov : "Markov chains. Gibbs fields, Monte Carlo simulation, and
queues", P. Brémaud, Springer, 1999.
Pour les personnes ne disposant pas des bases en Probabilités,
un cours introductif de Jean Bertoin (Laboratoire de
Probabilités, Paris 6) :
suivez ce
lien.
- Optimisation
Martin Puterman: Markov Decision Processes: Discrete Stochastic Dynamic
Programming, Wiley Series in Probability and Statistics, 2005.
(Tapez sur google: puterman markov decision process download ...)
- Théorie des jeux
to do
Stages
Plusieurs stages sont proposés dans le cadre du cours 2.17.1. A
titre indicatif, voici certains des stages proposés
dans le passé.
Les personnes intéréssées par
un stage peuvent s'adresser aux enseignants sans
attendre.