Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
start [2025/12/19 13:34]
Igor Kortchemski
start [2026/01/09 17:29] (Version actuelle)
Djalil Chafaï
Ligne 19: Ligne 19:
       * 15 décembre 2025. **[[https://people.kth.se/~duits/#/|Maurice Duits (KTH & Chaire FSMP)]]**. **Determinantal point processes, log-correlated fields, and Jacobi operators.**\\ //The global fluctuations in models from random matrix theory, random tilings, and non-colliding particle systems are often governed by log-correlated Gaussian fields. In this talk, I will present an operator-theoretic viewpoint based on Jacobi (and CMV) matrices for a broad class of determinantal point processes associated with orthogonal polynomials. Instead of analyzing correlation functions and their asymptotics, this approach captures fluctuations efficiently through the spectral data of the underlying Jacobi operator. The emergence of log-correlated fields can then be traced back to deep results in analysis, such as the Strong Szegő limit theorem and the Denisov–Rakhmanov theorem. The talk is intended for a broad audience.//       * 15 décembre 2025. **[[https://people.kth.se/~duits/#/|Maurice Duits (KTH & Chaire FSMP)]]**. **Determinantal point processes, log-correlated fields, and Jacobi operators.**\\ //The global fluctuations in models from random matrix theory, random tilings, and non-colliding particle systems are often governed by log-correlated Gaussian fields. In this talk, I will present an operator-theoretic viewpoint based on Jacobi (and CMV) matrices for a broad class of determinantal point processes associated with orthogonal polynomials. Instead of analyzing correlation functions and their asymptotics, this approach captures fluctuations efficiently through the spectral data of the underlying Jacobi operator. The emergence of log-correlated fields can then be traced back to deep results in analysis, such as the Strong Szegő limit theorem and the Denisov–Rakhmanov theorem. The talk is intended for a broad audience.//
       * 5 janvier 2026. **[[https://www.ceremade.dauphine.fr/~cosco/|Clément Cosco (Dauphine)]]**. **Champs log-corrélés et marches branchantes.**\\ //Il existe des objets mathématiques paraissant tout à fait distincts, comme certaines matrices aléatoires, une dynamique de populations, une équation aux dérivées partielles stochastique ou encore la fonction Zeta de Riemann, qui partagent des propriétés asymptotiques analogues. Ce qui les relie est l’apparition d’un champ log-corrélé décrivant leurs statistiques à grande échelle, ou de manière équivalente, l’existence d’une structure de marche branchante sous-jacente. Dans cet exposé, j’introduirai certains de ces modèles et tenterai de présenter leurs similitudes ainsi qu’une sélection de résultats connus.//       * 5 janvier 2026. **[[https://www.ceremade.dauphine.fr/~cosco/|Clément Cosco (Dauphine)]]**. **Champs log-corrélés et marches branchantes.**\\ //Il existe des objets mathématiques paraissant tout à fait distincts, comme certaines matrices aléatoires, une dynamique de populations, une équation aux dérivées partielles stochastique ou encore la fonction Zeta de Riemann, qui partagent des propriétés asymptotiques analogues. Ce qui les relie est l’apparition d’un champ log-corrélé décrivant leurs statistiques à grande échelle, ou de manière équivalente, l’existence d’une structure de marche branchante sous-jacente. Dans cet exposé, j’introduirai certains de ces modèles et tenterai de présenter leurs similitudes ainsi qu’une sélection de résultats connus.//
-      * 19 janvier 2026.  **[[https://jaouadmourtada.github.io/|Jaouad Mourtada (ENSAE/CREST)]]**. **Titre à préciser.**\\ ////+      * 19 janvier 2026.  **[[https://jaouadmourtada.github.io/|Jaouad Mourtada (ENSAE/CREST)]]**. **De la prédiction séquentielle à la géométrie des corps convexes.**\\ //L'objectif de la prédiction séquentielle probabiliste est de prédire une suite d'observations révélées une à une, en leur attribuant des probabilités aussi élevées que possible. Ce problème classique en apprentissage et en théorie de l'information est étroitement lié au codage universel et, plus récemment, à la prédiction du prochain token pour les modèles de langage. Dans cet exposé, je rappellerai d'abord des résultats classiques dus à Shtarkov et Rissanen dans les années 80–90. Une question centrale consiste à relier la complexité du problème à la "géométrie" du modèle sous-jacent. Pour l'aborder concrètement, je me restreindrai au cas de modèles gaussiens sous contrainte convexe. Je présenterai un résultat récent montrant que l'erreur optimale s'exprime alors en fonction de quantités de géométrie convexe, à savoir les volumes intrinsèques du corps considéré. Si le temps le permet, j'évoquerai aussi un lien avec la théorie des processus gaussiens. 
 +//
       * 16 février 2026. **[[https://www.normalesup.org/~basdevant/|Anne-Laure Basdevant (SU)]]**. **Titre à préciser.**\\ ////       * 16 février 2026. **[[https://www.normalesup.org/~basdevant/|Anne-Laure Basdevant (SU)]]**. **Titre à préciser.**\\ ////
       * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **Titre à préciser.**\\ ////       * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **Titre à préciser.**\\ ////
  • start.txt
  • Dernière modification: 2026/01/09 17:29
  • de Djalil Chafaï