| Les deux révisions précédentes
Révision précédente
Prochaine révision
|
Révision précédente
|
start [2026/01/09 17:29] Djalil Chafaï |
start [2026/03/24 13:58] (Version actuelle) Igor Kortchemski |
| * 19 janvier 2026. **[[https://jaouadmourtada.github.io/|Jaouad Mourtada (ENSAE/CREST)]]**. **De la prédiction séquentielle à la géométrie des corps convexes.**\\ //L'objectif de la prédiction séquentielle probabiliste est de prédire une suite d'observations révélées une à une, en leur attribuant des probabilités aussi élevées que possible. Ce problème classique en apprentissage et en théorie de l'information est étroitement lié au codage universel et, plus récemment, à la prédiction du prochain token pour les modèles de langage. Dans cet exposé, je rappellerai d'abord des résultats classiques dus à Shtarkov et Rissanen dans les années 80–90. Une question centrale consiste à relier la complexité du problème à la "géométrie" du modèle sous-jacent. Pour l'aborder concrètement, je me restreindrai au cas de modèles gaussiens sous contrainte convexe. Je présenterai un résultat récent montrant que l'erreur optimale s'exprime alors en fonction de quantités de géométrie convexe, à savoir les volumes intrinsèques du corps considéré. Si le temps le permet, j'évoquerai aussi un lien avec la théorie des processus gaussiens. | * 19 janvier 2026. **[[https://jaouadmourtada.github.io/|Jaouad Mourtada (ENSAE/CREST)]]**. **De la prédiction séquentielle à la géométrie des corps convexes.**\\ //L'objectif de la prédiction séquentielle probabiliste est de prédire une suite d'observations révélées une à une, en leur attribuant des probabilités aussi élevées que possible. Ce problème classique en apprentissage et en théorie de l'information est étroitement lié au codage universel et, plus récemment, à la prédiction du prochain token pour les modèles de langage. Dans cet exposé, je rappellerai d'abord des résultats classiques dus à Shtarkov et Rissanen dans les années 80–90. Une question centrale consiste à relier la complexité du problème à la "géométrie" du modèle sous-jacent. Pour l'aborder concrètement, je me restreindrai au cas de modèles gaussiens sous contrainte convexe. Je présenterai un résultat récent montrant que l'erreur optimale s'exprime alors en fonction de quantités de géométrie convexe, à savoir les volumes intrinsèques du corps considéré. Si le temps le permet, j'évoquerai aussi un lien avec la théorie des processus gaussiens. |
| // | // |
| * 16 février 2026. **[[https://www.normalesup.org/~basdevant/|Anne-Laure Basdevant (SU)]]**. **Titre à préciser.**\\ //// | * 16 février 2026. **[[https://www.normalesup.org/~basdevant/|Anne-Laure Basdevant (SU)]]**. **Problème d’Ulam et lignes d’Hammersley.**\\ //Le problème d’Ulam consiste à déterminer la longueur de la plus longue |
| * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **Titre à préciser.**\\ //// | sous-suite croissante d’une permutation aléatoire de taille n. |
| * 13 avril 2026. **[[https://www.sertedonderwinkel.com/|Serte Donderwinkel (Groningen, Professeure invitée ENS-PSL/DMA)]]**. **Titre à préciser.**\\ //// | Diverses méthodes ont permis de montrer que cette longueur est |
| | asymptotiquement équivalente à 2\sqrt{n}. Dans cet exposé, je |
| | présenterai une preuve de Cator et Groeneboom reposant sur un couplage |
| | probabiliste avec un modèle stationnaire. Je montrerai également |
| | comment cette approche peut être adaptée pour traiter d’autres |
| | problèmes connexes. |
| | // |
| | * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **De l’utilisation des modèles génératifs en échantillonnage.**\\ //Les modèles génératifs profonds paramètrent des familles de distributions très flexibles, capables de representer des ensembles de données complexes, tels que des images ou du texte. Ces modèles fournissent des échantillons indépendants provenant de distributions complexes de haute dimension à un coût négligeable. En revanche, échantillonner exactement une distribution cible, comme une loi posterior Bayésienne ou la distribution de Boltzmann d’un système physique, est généralement difficile : soit en raison de la dimensionnalité, de la multimodalité, du mauvais conditionnement, soit d’une combinaison de ces facteurs. Dans cet exposé, je discuterai des opportunités et des défis liés à l’amélioration des algorithmes traditionnels d’inférence et d’échantillonnage à l’aide de l’apprentissage.// |
| | * 13 avril 2026. **[[https://www.sertedonderwinkel.com/|Serte Donderwinkel (Groningen, Professeure invitée ENS-PSL/DMA)]]**. **Counting connected graphs.**\\ //How many connected graphs have a prescribed degree sequence?
This classical combinatorial question turns out to admit a natural probabilistic approach. |
| | |
| | In joint ongoing work with Sasha Bell and Remco van der Hofstad, we derive asymptotic formulas for the number of connected graphs with a given degree sequence. Our approach is an example of the probabilistic method: rather than counting directly, we introduce a suitable random graph model and study the likelihood that it exhibits a desired structure. |
| | |
| | Concretely, we construct a random graph in which (an approximation of) the prescribed degree sequence appears with high probability inside a large connected component. This perspective allows us to translate questions about enumeration into probabilistic statements about random graphs. |
| | |
| | Along the way, I will discuss several key probabilistic tools, including the configuration model, branching process approximations, and local weak convergence, and explain how they combine to yield asymptotic counting results.// |
| * 11 mai 2026. **[[https://www.ceremade.dauphine.fr/~massoulie/|Brune Massoulié (Dauphine)]]**. **Titre à préciser.**\\ //// | * 11 mai 2026. **[[https://www.ceremade.dauphine.fr/~massoulie/|Brune Massoulié (Dauphine)]]**. **Titre à préciser.**\\ //// |
| * **Année 2024-2025.** | * **Année 2024-2025.** |