IMB > Recherche > Séminaires

Séminaire Images Optimisation et Probabilités

Responsable : Luis Fredes et Camille Male

  • Le 28 novembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Michel Bonnefont IMB
    (proba-stats) Couplages stochastiques et distance en variation totale sur le groupe de Heisenberg et les groupes de Carnot

    Dans cet exposé, je vais m'intéresser au mouvement Brownien dans des cadres simples de géométrie sous riemannienne: le groupe de Heisenberg et les groupes de Carnot de rang 2. Nous proposons une construction d'un couplage de deux mouvement Browniens à un temps fixe. Cette construction est basée sur une décomposition de Legendre du mouvement Brownien standard et de son aire de Lévy. Nous déduisons alors des estimées précises de la décroissance en variation totale entre les lois des mouvements Browniens 

    et par une technique de changement de probabilité une formule d'intégration par partie de type Bismut ainsi des estimées de régularisation de type Poincaré inverse pour le semi-groupe associé. Travail en commun avec Marc Arnaudon, Magalie Bénéfice et Delphine Féral


  • Le 5 décembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Julien Hermant IMB
    (Maths-IA) Gradient Correlation allows for faster optimization

    Many problems, especially in machine learning, can be formulated as optimization problems. Using optimization algorithms, such as stochastic gradient descent or ADAM, has become a cornerstone to solve these optimization problems. However for many practical cases, theoretical proofs of their efficiency are lacking. In particular, it has been empirically observed that adding a momentum mechanism to the stochastic gradient descent often allows solving these optimization problems more efficiently. In this talk, we introduce a condition linked to a measure of the gradient correlation that allows to theoretically characterize the possibility to observe this acceleration.


  • Le 12 décembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférénces
    Jordan Serres INSA
    (proba-stats) À préciser

    À préciser


  • Le 9 janvier 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférence
    Franck Iutzeler Institut de Mathématiques de Toulouse
    (Maths-IA) What is the long-run behavior of stochastic gradient descent? A large deviations analysis

    Abstact: We examine the long-run distribution of stochastic gradient descent (SGD) in general, non-convex problems. Specifically, we seek to understand which regions of the problem's state space are more likely to be visited by SGD, and by how much. Using an approach based on the theory of large deviations and randomly perturbed dynamical systems, we show that the long-run distribution of SGD resembles the Boltzmann-Gibbs distribution of equilibrium thermodynamics with temperature equal to the method's step-size and energy levels determined by the problem's objective and the statistics of the noise. Joint work w/ W. Azizian, J. Malick, P. Mertikopoulos

    https://arxiv.org/abs/2406.09241 published at ICML 2024


  • Le 23 janvier 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Aram-Alexandre Pooladian NYU
    (proba-stats) À préciser

    À préciser


  • Le 30 janvier 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    David Picard ENPC
    À préciser

    À préciser


  • Le 6 février 2025 à 10:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Cécilia Lancien Institut Fourier & CNRS
    (Prob-Stat) A définir

    A préciser


  • Le 6 février 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Rémi Gribonval INRIA
    (Maths-IA) A définir

    A définir


  • Le 13 février 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Julien Gibaud IMB
    (proba-stats) Supervised component-based generalized linear regression for the joint modeling of responses

    In this presentation, a response matrix (here, species abundances) is assumed to depend on explanatory variables (here, environmental variables) supposed many and redundant, thus demanding dimension reduction. The Supervised Component-based Generalized Linear Regression (SCGLR), a Partial Least Squares-type method, is designed to extract from the explanatory variables several components jointly supervised by the set of responses. However, this methodology still has some limitations we aim to overcome in this work. The first limitation comes from the assumption that all the responses are predicted by the same explanatory space. As a second limitation, the previous works involving SCGLR assume the responses independent conditional on the explanatory variables. Again, this is not very likely in practice, especially in situations like those in ecology, where a non-negligible part of the explanatory variables could not be measured. To overcome the first limitation, we assume that the responses are partitioned into several unknown groups. We suppose that the responses in each group are predictable from an appropriate number of specific orthogonal supervised components of the explanatory variables. The second work relaxes the conditional independence assumption. A set of few latent factors models the residual covariance matrix of the responses conditional on the components. The approaches presented in this work are tested on simulation schemes, and then applied on ecology datasets.


    Séminaire joint avec OptimAI.


  • Le 13 mars 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Sibylle Marcotte ENS
    (Maths- IA) A définir

    A définir


  • Le 3 avril 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Adrien Taylor INRIA
    (Maths-IA) A définir

    A définir


  • Le 5 juin 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Nicolas Keriven CNRS
    (Maths-IA) A définir

     A définir


    Les anciens séminaires