Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
start [2026/03/24 13:57]
Igor Kortchemski
start [2026/03/24 13:58] (Version actuelle)
Igor Kortchemski
Ligne 31: Ligne 31:
 // //
       * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **De l’utilisation des modèles génératifs en échantillonnage.**\\ //Les modèles génératifs profonds paramètrent des familles de distributions très flexibles, capables de representer des ensembles de données complexes, tels que des images ou du texte. Ces modèles fournissent des échantillons indépendants provenant de distributions complexes de haute dimension à un coût négligeable. En revanche, échantillonner exactement une distribution cible, comme une loi posterior Bayésienne ou la distribution de Boltzmann d’un système physique, est généralement difficile : soit en raison de la dimensionnalité, de la multimodalité, du mauvais conditionnement, soit d’une combinaison de ces facteurs. Dans cet exposé, je discuterai des opportunités et des défis liés à l’amélioration des algorithmes traditionnels d’inférence et d’échantillonnage à l’aide de l’apprentissage.//       * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **De l’utilisation des modèles génératifs en échantillonnage.**\\ //Les modèles génératifs profonds paramètrent des familles de distributions très flexibles, capables de representer des ensembles de données complexes, tels que des images ou du texte. Ces modèles fournissent des échantillons indépendants provenant de distributions complexes de haute dimension à un coût négligeable. En revanche, échantillonner exactement une distribution cible, comme une loi posterior Bayésienne ou la distribution de Boltzmann d’un système physique, est généralement difficile : soit en raison de la dimensionnalité, de la multimodalité, du mauvais conditionnement, soit d’une combinaison de ces facteurs. Dans cet exposé, je discuterai des opportunités et des défis liés à l’amélioration des algorithmes traditionnels d’inférence et d’échantillonnage à l’aide de l’apprentissage.//
-      * 13 avril 2026. **[[https://www.sertedonderwinkel.com/|Serte Donderwinkel (Groningen, Professeure invitée ENS-PSL/DMA)]]**. **Counting connected graphs.**\\How many connected graphs have a prescribed degree sequence?
 This classical combinatorial question turns out to admit a natural probabilistic approach.+      * 13 avril 2026. **[[https://www.sertedonderwinkel.com/|Serte Donderwinkel (Groningen, Professeure invitée ENS-PSL/DMA)]]**. **Counting connected graphs.**\\ //How many connected graphs have a prescribed degree sequence?
 This classical combinatorial question turns out to admit a natural probabilistic approach.
  
 In joint ongoing work with Sasha Bell and Remco van der Hofstad, we derive asymptotic formulas for the number of connected graphs with a given degree sequence. Our approach is an example of the probabilistic method: rather than counting directly, we introduce a suitable random graph model and study the likelihood that it exhibits a desired structure. In joint ongoing work with Sasha Bell and Remco van der Hofstad, we derive asymptotic formulas for the number of connected graphs with a given degree sequence. Our approach is an example of the probabilistic method: rather than counting directly, we introduce a suitable random graph model and study the likelihood that it exhibits a desired structure.
Ligne 37: Ligne 37:
 Concretely, we construct a random graph in which (an approximation of) the prescribed degree sequence appears with high probability inside a large connected component. This perspective allows us to translate questions about enumeration into probabilistic statements about random graphs. Concretely, we construct a random graph in which (an approximation of) the prescribed degree sequence appears with high probability inside a large connected component. This perspective allows us to translate questions about enumeration into probabilistic statements about random graphs.
  
-Along the way, I will discuss several key probabilistic tools, including the configuration model, branching process approximations, and local weak convergence, and explain how they combine to yield asymptotic counting results.////+Along the way, I will discuss several key probabilistic tools, including the configuration model, branching process approximations, and local weak convergence, and explain how they combine to yield asymptotic counting results.//
       * 11 mai 2026. **[[https://www.ceremade.dauphine.fr/~massoulie/|Brune Massoulié (Dauphine)]]**. **Titre à préciser.**\\ ////       * 11 mai 2026. **[[https://www.ceremade.dauphine.fr/~massoulie/|Brune Massoulié (Dauphine)]]**. **Titre à préciser.**\\ ////
   * **Année 2024-2025.**   * **Année 2024-2025.**
  • start.1774357071.txt.gz
  • Dernière modification: 2026/03/24 13:57
  • de Igor Kortchemski