École d’été – Physique statistique de l’apprentissage automatique

Logo de l'Ecole de Physique des houches

L’école s’adresse principalement à un public de physiciens théoriques, de mathématiciens appliqués, d’informaticiens et de collègues d’autres domaines informatiques intéressés par l’apprentissage automatique, les réseaux neuronaux et l’analyse de données en haute dimension. Nous couvrirons les bases et les frontières des statistiques en haute dimension, de l’apprentissage automatique, de la théorie de l’informatique et de l’apprentissage statistique, ainsi que des mathématiques et de la théorie des probabilités qui y sont liées. Nous mettrons l’accent sur les méthodes de la physique statistique et leurs résultats dans le contexte des questions et théories actuelles liées à ces problèmes. Les questions ouvertes et les orientations seront également discutées.

Professeurs :

  • Francis Bach (Inria, ENS) : Sums-of-squares: from polynomials to kernels [videos]
  • Yasaman Bahri (Google) and Boris Hanin (Princeton) : Deep Learning at Large and Infinite Width [videos]
  • Boaz Barak (Harvard) : Computational Complexity of Deep learning: Fundamental limitations and Empirical phenomena [videos]
  • Giulio Biroli (ENS Paris) : High-Dimensional Non-Convex Landscapes and Gradient Descent Dynamics [videos]
  • Michael I. Jordan (Berkeley) On decision, dynamics, incentives, and mechanisms design [videos]
  • Julia Kempe (NYU): Data, Physics and Kernels and how can (statistical) physics tools help the DL practitioner slides[1], [videos]
  • Yann LeCun (Facebook & NYU) : From machine learning to autonomous intelligence slides: [1], [2], [3], [videos]
  • Marc Mézard (ENS Paris) : Belief propagation, Message-Passing & Sparse models
  • Remi Monasson (ENS Paris) : Replica method for computational problems with randomness: principles and illustrations Slides [1], [2], [videos]
  • Andrea Montanari (Stanford) : Neural networks from a nonparametric viewpoint [videos]
  • Sara Solla (Northwestern Univ.): Statistical Physics, Bayesian Inference and Neural Information Processing Slides [1], [2],[3], [videos]
  • Haim Sompolinsky (Harvard & Hebrew Univ.): Statistical Mechanics of Machine Learning [videos]
  • Nathan Srebro (TTI Chicago) Applying statistical learning theory to deep learning Slides [1], [2], [3], [4], [5], [6], [videos]
  • Eric Vanden-Eijnden (NYU Courant) : Benefits of overparametrization in statistical learning, & Enhancing MCMC Sampling with Learning [videos]
  • Matthieu Wyart (EPFL) : Loss landscape, over-parametrization and curse of dimensionality in deep learning Slides [1][videos]

Domaines étudiés

  • Phase transition in machine learning
  • Computational complexity
  • Dynamics of learning in high-dimension
  • Message passing algorithms
  • Challenges in machine learning
  • Statistical physics of deep neural networks
  • High-dimensional statistics
  • Optimization and implicit regularisation
  • Replica and cavity methods
  • Probability theory and rigorous approaches
  • Statistical inference in high-dimension
  • Computational learning theory

 

Participants

Find here the list of participants to the school.

Click here for the poster of the conference.

Organisateurs

Florent Krzakala and Lenka Zdeborova, EPFL

 

Logos de Université Grenoble Alpes, du CNRS, du CEA, de l'ENS de Lyon et de Grenoble INP

Sponsors

Logo de AISSAI Logo de la fondation CFM pour la rechercheLogo du fonds national suisselogo de l'ERCLogo de l'ANR (Agence nationale de recherche)Logo de l'EPFL Logo de IPhT Saclay

Partager