IMB > Recherche > Séminaires

Séminaire Images Optimisation et Probabilités

Responsable : Luis Fredes et Camille Male

  • Le 14 janvier 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Tom Rohmer ISPED
    Tests non-paramétriques de détection de rupture dans la copule d'observations multivariées avec et sans changement dans les lois marginales -illustration des méthodes et simulations de Monte Carlo-.
    De nombreux tests non paramétriques pour la détection de rupture dans la loi d'observations multivariées sont présents dans la littérature, cependant ces derniers sont très souvent peu puissants face à des alternatives de rupture dans la dépendance entre les composantes des observations lorsque les lois marginales sont inchangées. Dans le cas où les marges des vecteurs aléatoires sont continues, le théorème de Sklar garantit l?existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur aléatoire. De plus la donnée de la copule et des lois marginales va caractériser la loi du vecteur aléatoire. Dans cette présentation, j'exposerai un test CUSUM non paramétrique pour la détection de rupture dans la distribution d?observations multivariée, particulièrement sensible à un changement dans la copule des observations. J'exposerai également comment adapter ce test pour permettre en plus un ou plusieurs changement dans les lois marginales. Enfin j'illustrerai ces deux tests au travers d?une application sur des données et de simulations de Monte Carlo à tailles d'échantillon modérées.
  • Le 28 janvier 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Koléhè Coulibaly Université de Nancy
    Une diffusion dans l'espace des lacets $C^1$
    Soit M une variété orientable, et un lacet $ \gamma : s \in [0,1] \mapsto M$, nous nous intéressons à l'existence d'une diffusion dans l'espace des lacets $C^1$, telle que pour tout $s\in [0,1]$, $ t \mapsto \gamma_s(t)$ soit un mouvement brownien. Nous en donnerons quelques propriétés. (Travail en cours avec Marc Arnaudon).
  • Le 4 février 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Camille MALE Paris 7
    Spectre de matrices et de graphes aléatoires, probabilités libres
    Dans les années '80, Voiculescu a créé les probabilités libres afin d'étudier les algèbres de von Neumann des groupes libres. Il invente le concept de "liberté", qui joue le role de l'indépendance statistique dans sa théorie non commutative. Vers le début des années '90, il réalisa que la liberté permet de calculer la distribution de valeurs propres de polynômes en certaines matrices aléatoires, lorsque la taille des matrices tend vers l'infini. Cependant, la théorie de Voiculescu ne s'applique pas lorsque les vecteurs propres des matrices aléatoires ne sont pas asymptotiquement uniformément distribués. Afin d'étudier ces matrices aléatoires, qui comprennent les matrices d'adjacence de graphes aléatoires, j'introduis un cadre étendu des probabilités non commutatives. Celui ci permet d'étendre l'étude de la distribution de valeurs propres de polynômes en des matrices aléatoires invariantes par conjugaison par des matrices de permutation.
  • Le 11 février 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Jérémie Bigot IMB
    Generalized SURE for optimal shrinkage of singular values in low-rank matrix denoising
    We consider the problem of estimating a low-rank signal matrix from noisy measurements under the assumption that the distribution of the data matrix belongs to an exponential family. In this setting, we derive generalized SURE formulas that hold for any smooth spectral estimators which shrink or threshold the singular values of the data matrix. This allows to obtain new data-driven shrinkage rules, whose optimality is discussed using tools from random matrix theory and through numerical experiments.
  • Le 3 mars 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Yousri Slaoui Poitiers
    Parameter Estimation in a linear mixed Model with Censored Response: An Approach using a SEM Algorithm and Gibbs Sampling.
    In this talk, we propose an approach, based on the stochastic expectation maximization (SEM) algorithm and Gibbs sampling, to deal with the problem caused by censoring in the response of a linear mixed models. We compared our approach with the existing methods via real data sets as well as simulations. Results showed that our approach outperformed other approaches in terms of estimation accuracy and computing efficiency.
  • Le 10 mars 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jean-François Marckert LaBRI
    à propos du problème de Sylvester
    Mettons n points aléatoires uniformes dans un domaine compact convexe $K$ du plan. Notons $P_K^n$ la probabilité que ces points soient en position convexe, c'est-à-dire, soient les sommets d'un polygone convexe. Blaschke en 1917 a montré que $P_T^4 \leq P_K^4 \leq P_0^4$ où $T$ désigne un triangle, et $O$ le disque. Dans cet exposé nous montrerons que cette propriété est vraie pour 5 points également. Nous illustrerons par des exemples, que ce domaine de recherche allie des techniques géométriques, probabilistes, et combinatoires.
  • Le 24 mars 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Sofiane Saadane Toulouse
    Étude du regret associé aux algorithmes de bandit de type Narendra-Shapiro (N-S)
    Les algorithmes de bandit de types N-S ont été introduits dans les années 60 en vue d'applications aux tests cliniques notamment. Le principe d'un algorithme de bandit peut être défini de la manière suivante : on dispose de 2 sources A et B (ayant respectivement une probabilité pA et pB d'être satisfaisante lorsque qu'elle est utilisée) et on souhaite déterminer laquelle des deux est la plus performante. Récemment Lamberton et Pagès ont introduit une version dite “pénalisée” de cet algorithme pour laquelle divers résultats de convergence ont été démontrés. Nous nous intéressons dans ce travail à la question suivante : ces algorithmes sont-ils performants d'un point de vue de regret ? Le regret étant la différence entre la meilleure performance possible (i.e celle obtenue en choisissant toujours la meilleur source) et celle obtenue par l'algorithme. Dans cette présentation, nous verrons qu'une légère modification de cette algorithme conduit à des bornes de regret de l'ordre de \sqrt{n} uniformément en pA et pB. Nous étendrons aussi les résultats de Lamberton et Pagès à une version multidimensionnelle de l'algorithme. Nous établirons une convergence en loi vers la mesure invariante d'un PDMP pour lequel nous étudierons sa convergence à l'équilibre. Travail effectué en collaboration avec Sébastien Gadat et Fabien Panloup.
  • Le 31 mars 2016 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Djalil Chafaï Université Paris-Dauphine
    Au bord de systèmes de particules en interaction (séminaire en commun avec l'équipe Analyse)
    Cet exposé présente des résultats et des questions ouvertes concernant le bord de systèmes de particules en interaction, liés à ou inspirés par des modèles de matrices aléatoires.
  • Le 7 avril 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Paul Doukhan Université Cergy-Pontoise
    dépendance faible, valeurs extrêmes et rééchantillonnage
    les propriétés de dépendance faible introduites avec Louhichi en 1999 sont rappelées avec leurs propriétés et des modèles adaptés. Leurs propriétés sont adaptées aux techniques de rééchantillonnage. L'objectif de l'exposé est de le démontrer en s'appuyant sur des questions issues de la théorie des valeurs extrêmes.
  • Le 14 avril 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Joseph Salmon Telecom Paris
    GAP safe screening rule for sparsity enforcing penalties
    High dimensional regression benefits from sparsity promoting regularizations. In such a context, screening rules leverage the known sparsity of the solution by ignoring some variables during (or even before) the optimization process, hence speeding up solvers. Such rules are said to be "safe" when they cannot wrongly discard features. In this talk, new safe rules for generalized linear models with sparsity enforcing regularization will be proposed. Our proposed GAP Safe (screening) rules can cope with any iterative solver and we illustrate their performance on coordinate descent, demonstrating interesting speed ups for learning problems. This is a joint work with E. Ndiaye, O. Fercoq and A. Gramfort
  • Le 28 avril 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Jamal Najim université de Marne La Vallée
    Limiting spectral distribution for non-hermitian random matrices with a variance profile
    Consider a large $n \times n$ random matrix $Y_n$ with entries given by $$Y_{ij} = \frac{\sigma_{ij}}{\sqrt{n}} X_{ij}$$ where the $X_{ij}$'s are independent and identically distributed random variables with four moments, and the $\sigma_{ij}$'s are deterministic, non-negative quantities and account for a variance profile. Notice that some of the $\sigma_{ij}$'s may be equal to zero. In this talk, we will describe the limiting spectral distribution of matrix $X_n$ as $n \rightarrow \infty$, that is the limit of the empirical distribution of $X_n$'s eigenvalues. We will carefully specify the assumptions on the variance profile $(\sigma_{ij} )$ under which we can describe the limiting spectral distribution. This is a joint work with Nicholas Cook, Walid Hachem and David Renfrew.
  • Le 12 mai 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Clarice M H S Poon Paris Dauphine
    Geometric properties of solutions to the total variation denoising problem
    Total variation (TV) denoising has been extensively studied in imaging sciences since its introduction by Rudin, Osher and Fatemi in 1992. However, the majority of theoretical works TV regularization are actually concerned with solutions to total variation denoising in the absence of noise. For instance, it is known that the jump set of the regularized solutions are contained in the jump set of the original data, but this knowledge is fairly meaningless in the presence of noise since the noisy function can introduce arbitrarily many new discontinuities. Furthermore, works that consider the impact of noise on TV regularized solutions typically derive integral estimates such as L^2 error bounds or bounds on the total variation of the solution. However, such estimates do not inform on the proximity of the gradient support of the regularized solution to that of the clean function. This talk is concerned with the impact of noise on the regularized solutions. In particular, we consider stability in the gradient support of solutions and address the following question: Given a small neighbourhood around the support of Df, when will the gradient support of the regularized solution be contained inside this neighbourhood if the noise function has sufficiently small L^2 norm?
  • Le 26 mai 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 385
    Nicolas Fournier
    Estimation statistique de l'entropie
    On observe un échantillon i.i.d. d'une loi de densité $f$ sur $R^d$ et on cherche à estimer $H(f)=-\int_{R^d} f(x) log f(x) dx$. C'est un vieux problème manifestement très répandu en sciences appliquées, mais aucune vitesse de convergence n'est démontrée en dimension $d\geq 2$ dans un cadre général (i.e. sans hypothèse structurelle sur $f$). Nous obtenons, pour l'estimateur proposé par Kozachenko-Leonenko en 1987, un TCL qui permet qui permet de fournir des intervalles de confiances (asymptotiques) exacts. La vitesse est en $1/\sqrt N$. (Travail en commun avec S. Delattre)
  • Le 2 juin 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Clément Chesseboeuf Université de Poitiers
    VARIANCE CHANGE-POINT DETECTION FOR STATIONARY GAUSSIAN PROCESSES
    We consider the problem of detecting and estimating abrupt changes in the variance of a piecewise stationary Gaussian sequence. Following the usual approach of the change-point analysis we define a contrast function and estimate the change-point as the point of maximum contrast. The consistency of such an estimator can be proven using a functional convergence theorem. A natural application of this method is the detection of change in the Hurst index of a piecewise fractional Brownian motion (fBm). Using the stationarity of increments, we can apply it to this problem. In this talk I will present the construction of the estimator and prove its consistency. A relative statistical test will be also discussed. Finally, I will give numerical results for the case of fractional Brownian motion.
  • Le 23 juin 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Franck Iutzeler Université de Grenoble
    Practical acceleration for some optimization methods using relaxation and inertia
    Optimization algorithms can often be seen as fixed-points iterations of some operators. To accelerate such iterations, two simple methods that can be used are i) relaxation (simple combination of current and previous iterate) and ii) inertia (slightly more involved modification made popular by Nesterov's acceleration). These methods have been celebrated for accelerating linearly and sub-linearly converging algorithms such as gradient methods, proximal gradient (FISTA), or ADMM (Fast ADMM). In this presentation, we build upon generic contraction properties and affine approximations to propose generic auto-tuned acceleration methods and illustrate their compared interests on various optimization algorithms.
  • Le 8 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Thomas Hotz université de Ilmenau
    On the Topology of Projective Shape Spaces
    The projective shape of a configuration consists of the information that is invariant under projective transformations. It encodes the information about an object reconstructable from uncalibrated camera views. The space of projective shapes of k points in RP(d) is by definition the quotient space of k copies of RP(d) modulo the action of the projective linear group PGL(d). A detailed examination of the topology of projective shape space is given, and it is shown how to derive subsets that are differentiable Hausdorff manifolds and can be provided with a Riemannian metric. A special case are Tyler regular shapes for which a Riemannian metric is given. This is joint work with Florian Kelma (TU Ilmenau) and John T. Kent (University of Leeds).
  • Le 15 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Camille Male IMB
    Matrices, graphes aléatoires et probabilités libres
    "Dans cet exposé je commencerai par décrire ce que nous connaissons sur les mesures empiriques des valeurs propres de certains grands graphes aléatoires. J'expliquerai ensuite comment la convergence locale faible, au sens de Benjamini et Schramm, est utile pour connaitre le spectre de polynômes en plusieurs matrices de graphes indépendantes." Certains résultat qui seront énoncé ont été établis en collaboration avec S. Péché.
  • Le 22 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Alice Le Brigant IMB
    Comparer et moyenner des courbes dans une variété pour des applications en traitement du signal
    De nombreuses applications nécessitent l'étude de courbes dans un certain espace (en toute généralité, une variété) et de leurs formes. Un exemple simple en courbure positive est l'étude de trajectoires sur la sphère terrestre. Dans le cadre du traitement du signal, nous nous intéressons à des courbes dans un espace à courbure négative, l'espace hyperbolique, qui coïncide avec la variété statistique des distributions gaussiennes. Dans notre application, ces courbes représentent les évolutions de processus gaussiens localement stationnaires. Afin de les manipuler et les comparer, nous munissons l'espace de ces courbes d'une métrique Riemannienne et nous étudions la géométrie induite, en particulier les géodésiques pour cette métrique. Cela nous permet de construire la déformation optimale d'une courbe à une autre et de calculer la moyenne de plusieurs courbes.
  • Le 29 septembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    -
    Sans titre

  • Le 6 octobre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    -
    Sans titre

  • Le 13 octobre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Gabriele Facciolo ENPC
    MGM: A Significantly More Global Matching for Stereovision
    Semi-global matching (SGM) is among the top-ranked stereovision algorithms. SGM is an efficient strategy for approximately minimizing a global energy that comprises a pixel-wise matching cost and pair-wise smoothness terms. In SGM the two-dimensional smoothness constraint is approximated as the average of one-dimensional line optimization problems. The accuracy and speed of SGM are the main reasons for its widespread adoption, even when applied to generic problems beyond stereovision. This approximate minimization, however, also produces characteristic low amplitude streaks in the final disparity image, and is clearly suboptimal with respect to more comprehensive minimization strategies. Based on a recently proposed interpretation of SGM as a min-sum Belief Propagation algorithm, we propose a new algorithm that allows to reduce by a factor five the energy gap of SGM with respect to reference algorithms for MRFs with truncated smoothness terms. The proposed method comes with no compromises with respect to the baseline SGM, no parameters and virtually no computational overhead. At the same time it attains higher quality results by removing the characteristic streaking artifacts of SGM.
  • Le 3 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Raphaël BUTEZ Paris Dauphine
    Universalité des grandes déviations pour les racines de polynômes aléatoires
    Dans cet exposé nous étudierons les racines de polynômes dont les coefficients sont des variables réelles ou complexes à densité par rapport à la mesure de Lebesgue. Nous verrons que nous pouvons calculer explicitement la distribution des racines de ces polynômes et qu'elles forment un gaz de Coulomb qui présente de nombreuses similitudes avec les valeurs propres de certaines matrices aléatoires. Nous verrons comment obtenir un principe de grandes déviations pour la mesure empirique des zéros. Nous expliquerons pourquoi les grandes déviations sont universelles (le principe de grandes déviations que nous présenterons est vrai pour une large classe de coefficients, avec toujours la même fonction de taux et la même vitesse). La majorité de l'exposé reposera sur l'article http://arxiv.org/abs/1607.02392
  • Le 10 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Iona Gavra TSE Toulouse
    Comment calculer le barycentre d'un (très grand) graphe ?
    L'objectif de cet exposé est de décrire un algorithme de calcul de barycentre pour des structures discrètes telles que les graphes pondérés. De telles structures sont couramment utilisées pour décrire des bases de données, modéliser des communications, internet, des flux de transport routier ou aérien, etc. Le calcul du barycentre de telles structures, pour un graphe possiblement très gros, induit des difficultés liées à l'optimisation de fonctionnelles non convexes. Nous décrivons dans cet exposé une première manière de calculer le barycentre de graphes pondérés (arêtes et nœuds), au travers d'un algorithme de recuit simulé homogénéisé et démontrons la convergence d'une telle procédure. Enfin, nous appliquons sur données réelles la méthode et illustrerons ses forces, et ses faiblesses... Ce travail est en collaboration avec S. Gadat (Pr UT1), L. Miclo (DR CNRS) et L. Risser (IR CNRS).
  • Le 22 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Charles Soussen U. de Lorraine
    Algorithmes de type homotopiques pour la minimisation des moindres carrés régularisés par la pseudo-norme L0
    Cette présentation concerne le développement d'algorithmes d'approximation parcimonieuse pour les problèmes inverses mal conditionnés. Les algorithmes heuristiques proposés sont conçus pour minimiser des critères mixtes L2-L0 du type $$min_x J(x;\lambda) = || y - Ax ||_2^2 + \lambda || x ||_0.$$ Ce sont des algorithmes gloutons "bidirectionnels" définis en tant qu'extensions d'Orthogonal Least Squares (OLS). Leur développement est motivé par le très bon comportement empirique d'OLS et de ses versions dérivées lorsque la matrice A est mal conditionnée. Je présenterai dans un premier temps l'algorithme "Single Best Replacement" (SBR) pour minimiser J(x;lambda) à lambda fixé [1], en mettant en avant ses propriétés structurelles. Dans la deuxième partie de la présentation, je présenterai deux algorithmes permettant de minimiser J pour un continuum de valeurs de lambda, ce qui conduit à estimer le chemin de régularisation L0 [2]. Ces algorithmes sont inspirés de l'algorithme d'homotopie pour la régularisaton L1 et exploitent le caractère constant par morceaux du chemin de régularisation L0. Les simulations numériques montrent l'efficacité des deux algorithmes pour des problèmes inverses difficiles comme la déconvolution impulsionnelle par un filtre passe-bas. Je montrerai finalement que les algorithmes proposés peuvent être avantageusement couplés avec des méthodes de sélection d'ordre comme le MDL (Minimum Description Length) afin de sélectionner automatiquement l'une seule solutions parcimonieuses obtenues. [1] C. Soussen, J. Idier, D. Brie et J. Duan, From Bernoulli-Gaussian deconvolution to sparse signal restoration, IEEE Transactions on Signal Processing, vol. 59, no. 10, pp. 4572-4584, oct. 2011. [2] C. Soussen, J. Idier, J. Duan et D. Brie, Homotopy based algorithms for l0-regularized least-squares, IEEE Transactions on Signal Processing, vol. 63, no.13, 3301-3316, juil. 2015
  • Le 24 novembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pierre-Yves Louis U. Poitiers
    Systèmes de processus de renforcement en interaction champ moyen
    Nous nous intéressons à des systèmes de processus où l'interaction est de type champ moyen à travers un mécanisme de renforcement. Différents régimes de renforcement sont considérés. Un phénomène de synchronisation vers une limite commune en temps, aléatoire ou déterministe, est démontré. Nous étudions également les fluctuations et établissons des théorèmes centraux limite fonctionnels. Cet exposé se fonde principalement sur des travaux en collaboration avec I. Crimaldi, P. Dai Pra et I. Minelli (arXiv 1602.06217v2).
  • Le 8 décembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Bruno Galerne Paris 5
    Champs aléatoires à variation bornée et calcul de leur variation moyenne
    En traitement d'images il est d'usage de considérer que la variation totale des images de textures est élevée voir infinie. Cependant, très peu de choses sont connues concernant la variation totale des modèles classiques de textures comme les champs gaussiens, les shot noises, etc. Le but de cet exposé est de définir et de caractériser les champs aléatoires à variation bornée, c'est-à-dire les champs aléatoires dont les réalisations sont des fonctions à variation bornée, et d'étudier leur variation totale moyenne. On s'intéressera plus particulièrement à la variation moyenne des champs aléatoires à incréments stationnaires. On montrera que leur variation moyenne est proportionnelle à la mesure de Lesbesgue, et une expression de la constante de proportionnalité, appelée intensité de variation, sera établie. En se restreignant au cas des ensembles aléatoires, les résultats obtenus fournissent des généralisations de formules standards de géométrie stochastique et de morphologie mathématique. L'intérêt de ces résultats généraux sera illustré en calculant l'intensité de variation de plusieurs modèles classiques de champs aléatoires, à savoir les champs gaussiens et leurs excursions, les shot noise poissonniens, les modèles booléens, et les modèles feuilles mortes. Référence : B. Galerne, Random Fields of Bounded Variation and Computation of their Variation Intensity, Accepted for publication in Advances in Applied Probability, https://hal.archives-ouvertes.fr/hal-01044582/en
  • Le 15 décembre 2016 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Martin Ehler Vienne
    Covering radius and numerical approximation: beating randomness on Grassmannians
    I will first briefly mention some of my research related to biomedical image analysis, somewhat hinting at my general interest in Grassmannians (the manifold of lower dimensional subspaces in Euclidean space). The actual talk is about the problem of selecting good collections of lower dimensional subspaces, where “good" is supposed to mean “better distributed than random points". Indeed, we verify that cubature points on Grassmannians cover better than random points. We also numerically construct such deterministic cubature points. To further support our theoretical findings, we present numerical experiments on the approximation of Sobolev functions on Grassmannians from finitely many sampling points. The numerical results are in accordance with the theoretical findings.
  • Le 5 janvier 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Lionel Mathelin LIMSI Orsay
    Estimation et contrôle de systèmes peu observables en grande dimension par apprentissage statistique (séminaire commun avec l'équipe calcul scientifique)
    Dans un contexte d'assimilation de données, l'efficacité de l'inférence Bayésienne est typiquement limitée par le coût de l'évaluation numérique du modèle et le peu d'information disponible. Une réduction drastique de la dimension de l'espace d'échantillonnage, par apprentissage statistique sous contrainte d'observabilité et de parcimonie, sera discutée. On montre que le problème se formule comme un problème de double optimisation sous contraintes. Une approche Bayésienne est adoptée et une formulation hiérarchique permet, dans le cas d'un opérateur d'observation linéaire et d'un modèle de vraisemblance Gaussien, l'apprentissage de dictionnaires par une approche progressive. Cette approche est très efficace numériquement, et conduit à des expressions explicites pour l'estimation du champ aléatoire considéré (maximum a posteriori, matrice de covariance). L'estimation du champ est alors immédiate à partir de ces résultats. Dans le cas plus général, une approche MCMC peut-être utilisée avec le dictionnaire appris. Nous discuterons également du contrôle en boucle fermée d'un système complexe peu observable et sans modèle. L'apprentissage de sa variété neutre lors d'une étape d'entraînement permet de déterminer une politique de contrôle efficace. Cette approche sera illustrée par un exemple en mécanique des fluides.
  • Le 12 janvier 2017 à 11:30
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Hermine Biermé université de Poitiers
    Simulation de champs gaussiens anisotropes
    Certains travaux en imagerie médicale proposent de caractériser l'irrégularité des textures observées par leur dimension fractale. Ces études sont basées sur la modélisation stochastique des images par un champ brownien fractionnaire dont la dimension fractale est déterminée par le paramètre de Hurst qui gouverne son autosimilarité. Cependant, ce modèle stochastique ne permet pas de rendre compte de l'anisotropie des images qui peut être importante pour l'aide au diagnostic. \ Nous considérons deux généralisations anisotropes de ces champs aléatoires dont on cherche à simuler des trajectoires sur une grille régulière. Le premier modèle reste un champ aléatoire autosimilaire dont l'anisotropie est déterminée par une fonction du tore. En collaboration avec Lionel Moisan (MAP5, Université Paris Descartes, France) et Frédéric Richard (LATP, Aix-Marseille Université, France), nous proposons une adaptation de la méthode des bandes tournantes, introduite par Matheron, à partir de simulations exactes de mouvement brownien fractionnaire unidimensionnel. Le second modèle est obtenu par une déformation anisotrope du variogramme du champ brownien fractionnaire. L'autosimilarité est remplacée par une propriété d'autosimilarité matricielle. En collaboration avec Céline Lacaux (IECN, Université Lorraine, Nancy, France), nous proposons une adaptation de la méthode de Stein, basée sur une représentation locale stationnaire, afin d'obtenir des simulations exactes.
  • Le 26 janvier 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Marianne Clausel Univ. de Grenoble
    Caractérisation de textures autosimilaires anisotropes a l'aide de la transformée hyperbolique en ondelettes
    Dans bien des situations, on est amené a analyser des textures qui sont anisotropes, c'est à dire dont les propriétés sont différentes suivant les directions considérées. Une question naturelle est alors de savoir comment définir puis éventuellement estimer le degré d'anisotropie d'une image donnée. Ici, nous nous intéressons à un modèle de champ aléatoire anisotrope autosimilaire. Nous utilisons la transformée hyperbolique en ondelettes pour définir des estimateurs d'une anisotropie et de l'indice de Hurst (mesurant la rugosité) du modèle étudié, dont nous étudions numériquement les performances.
  • Le 2 février 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Salem Said IMS
    lois Gaussiennes dans les espaces symétriques : outils pour l'apprentissage avec les matrices de covariance structurées
    la notion de loi Gaussienne peut être développée à partir de plusieurs définitions : loi à maximum d'entropie, à minimum d'incertitude (état cohérent), à travers le théorème de la limite centrale, ou la théorie cinétique des gaz. Sur un espace euclidien, toutes ces définitions mènent à la même forme pour la loi Gaussienne, mais dans des espaces plus généraux, elles donnent lieu à des formes différentes...la présentation propose une définition originale de la notion de loi Gaussienne, valable sur les espaces Riemanniens symétriques de courbure négative. Il s'agit de lois ayant la propriété : le max de vraisemblance est équivalent au barycentre Riemannien..Il n'y a pas de bonne ou de mauvaise définition dans l'absolu, mais celle-ci présente deux avantages, 1) plusieurs espaces de matrices de covariance (réelles, complexes, Toeplitz, Toeplitz par blocs) sont des espaces symétriques de courbure négative, 2) dans ce contexte, elle donne un fondement statistique à l'utilisation du barycentre Riemannien, qui est un outil très populaire pour grand nombre d'applications. Nous allons comparer la définition proposée aux autres définitions possibles, développer les conséquences théoriques de cette définition, et finalement dire comment elle permet de proposer de nouveaux algorithmes d'apprentissage statistique, spécifiquement adaptés au contexte des ''big data'' et "données en grandes dimensions". Le tout sera illustré par des d'exemples ... pour plus de détails, voir les deux papiers (2015 et 2016) :   https://arxiv.org/abs/1507.01760 https://arxiv.org/abs/1607.06929
  • Le 9 février 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Laurent Miclo UPS Toulouse
    Entrelacements markoviens : des mélanges de cartes aux théorèmes de densité elliptiques
    On commencera par présenter deux exemples classiques d'entrelacement markovien : le théorème de Pitman sur la relation entre le mouvement brownien unidimensionel et le processus de Bessel de dimension 3 et l'estimation par Aldous et Diaconis de la convergence à l'équilibre de mélanges de cartes via des temps forts de stationarité. Puis on rappellera comment plonger ces exemples historiques dans un cadre unifié, grâce à la théorie de la dualité due à Diaconis et Fill. Enfin on étendra ces résultats en direction des diffusions elliptiques sur des variétés, pour retrouver des théorèmes de densité, à travers des modifications stochastiques des flots de courbure moyenne. Avec l'espoir que ceci conduira (dans un futur assez lointain ...) à une nouvelle approche probabiliste du théorème de H"ormander.
  • Le 16 février 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérémie Bigot IMB
    Grandes matrices aléatoires et perturbations de faible rang
    Dans cet exposé, on propose de s'intéresser au problème de l'estimation d'une matrice de rang faible à partir d'observations aléatoires bruitées dont la distribution appartient à une famille exponentielle. La classe d'estimateurs considérée est celle des estimateurs spectraux construits à partir du seuillage des valeurs singulières de la matrice des observations. Pour certains types de bruit (Gaussien par exemple) il est possible de construire des estimateurs spectraux qui sont asymptotiquement optimaux en utilisant le comportement asymptotique de grandes matrices aléatoires en présence d'une perturbation additive de faible rang. L'un des buts de l'exposé est de discuter des possibilités d'extension de ce type de résultat au delà du cas d'un bruit Gaussien (modèle de bruit de Poisson ou Gamma).
  • Le 9 mars 2017 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Djalil Chafaï U. Paris Dauphine
    Sans titre

  • Le 16 mars 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    -
    Sans titre

  • Le 23 mars 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Nicolas Papadakis IMB
    Covariant LEAst-Square Re-fitting for image restoration
    We propose a new framework to remove parts of the systematic errors affecting popular restoration algorithms, with a special focus for image processing tasks. Generalizing ideas that emerged for l1 regularization, we develop an approach re-fitting the results of standard methods towards the input data. Total variation regularizations and non-local means are special cases of interest. We identify important covariant information that should be preserved by the re-fitting method, and emphasize the importance of preserving the Jacobian (w.r.t. the observed signal) of the original estimator. Then, we provide an approach that has a ``twicing'' flavor and allows re-fitting the restored signal by adding back a local affine transformation of the residual term. We illustrate the benefits of our method on numerical simulations for image restoration tasks. Joint work with C.-A. Deledalle (IMBordeaux), J. Salmon (TELECOM ParisTech) and S. Vaiter (IMBourgogne)
  • Le 30 mars 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Marc Arnaudon IMB
    Mouvement Brownien réfléchi : sélection, approximation, linéarisation

  • Le 6 avril 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Adrien Richou IMB
    Quelques résultats d'existence et d'unicité pour les équations différentielles stochastiques rétrogrades obliquement réfléchies
    Dans cet exposé j'expliquerai ce qu'est une équation différentielle stochastique rétrograde réfléchie et quels sont les liens avec les problèmes de contrôle stochastique optimal de type "switching". Cet exposé est issu d'un travail en cours avec J.F. Chassagneux (Paris 7).
  • Le 13 avril 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Michel Bonnefont IMB
    Une inégalité de Log-Sobolev sur le groupe de Heisenberg par la méthode de tensorisation de Gross
    En partant de l'espace à 2 points, en tensorisant au cube discret et en utilisant le TCL, Gross en 1975 a démontré l'inégalité de Poincaré et de Log-Sobolev avec constante optimale pour la gaussienne. Dans cet exposé, nous étudierons cette méthode sur le groupe de Heisenberg, qui est le premier espace modèle de la géométrie sus riemannienne.
  • Le 27 avril 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Fanny Augeri UPS Toulouse
    Grandes déviations des traces de matrices aléatoires
    L'étude des traces de matrices aléatoires est maintenant un outil classique pour comprendre le comportement asymptotique du spectre. Depuis la preuve originale du théorème de Wigner par la méthode des moments, jusqu'aux résultats d'universalité au bord du spectre de matrices de Wigner ou de covariance empirique, la "méthode des traces" s'est révélée très efficace dans l'étude macroscopique aussi bien que microscopique du spectre de matrices aléatoires. En partant du théorème de Wigner, qui donne la convergence des traces normalisées vers les nombres de Catalan, on s'intéressera au grandes déviations des traces autour de leurs limites respectives. Comme l'application qui à une mesure de probabilité associe sont p ème moment n'est pas continue pour la topologie faible, il n'est pas possible de contracter les principes de grandes déviations connus pour la mesure spectrale, comme dans le cas des ensembles Gaussiens classiques (Ben-Arous - Guionnet, 1997), ou des matrices de Wigner sans queues sous-Gaussiennes (Bordenave-Caputo, 2014). Le problème des grandes déviations des traces implique de chercher d'autres stratégies que l'on exposera dans le cas de trois modèles : celui des matrices de Wigner à entrées Gaussiennes, celui des beta-ensembles à potentiel convexe et croissance polynomiale et le cas des matrices de Wigner sans queues sous-Gaussiennes. Cet exposé sera basé sur l'article "On the large deviations of traces of random matrices", arXiv:1502.07983.
  • Le 4 mai 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Guillaume Cebron IMT
    Le semigroupe de la chaleur en grande dimension
    En grande dimension, la loi spectrale de matrices aléatoires provenant de mouvements browniens est décrite par des semigroupes qui ne sont plus homogènes. Je présenterai différentes façons de décrire ces semi-groupes limites, et j'en déduirai des résultats sur la limite en grande dimension de processus sur des groupes de Lie, et la q-deformation de la transformée de Segal-Bargmann (collaboration avec Ching Wei Ho).
  • Le 11 mai 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jonathan Harter IMB
    EDS rétrogrades pour la recherche de(s) martingale(s) de valeur terminale donnée sur les variétés
    Initialement introduites par Bismut pour la résolution d'un problème de contrôle optimal, les EDSR sont rapidement devenues un domaine de recherche à part entière. Le cas de la croissance Lipschitzienne est bien connu depuis l'article fondateur de Pardoux et Peng en 1990. Pour certains problèmes, notamment celui de trouver les martingales de valeur terminale donnée sur une variété relativement à une filtration Brownienne, l'hypothèse de croissance Lipschitizienne est insuffisante. Il est alors nécessaire de considérer une croissance quadratique en z. Le cas de la dimension une est bien connu et a donné naissance à une importante littérature initiée par Kobylanski, Lepeltier, et San Martin. Le cas général lui reste encore ouvert. Je présenterai un certain nombre de résultats d'existence et d'unicité établis avec Adrien Richou (https://arxiv.org/abs/1606.08627). Une approche par stabilité est utilisée comme dans l'article de Briand et Elie https://hal.archives-ouvertes.fr/hal-00717226/), mais réadaptée pour la dimension supérieure.
  • Le 18 mai 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Laurence MAILLARD-TEYSSIER RTE
    La modélisation mathématique au service du transport de l'électricité (Séminaire commun avec l'équipe Optimal)
    Dans le contexte de la transition énergétique, avec l'intégration massive des énergies renouvelables, la modulation croissante de la consommation électrique et les scénarios futurs de mix énergétiques, RTE (le gestionnaire du Réseau de Transport d'Électricité) doit continuer d'acheminer l'électricité en tout point du territoire, en équilibrant instantanément production et consommation et en garantissant la sûreté du système. La R&DI développe des outils et méthodes visant à optimiser les performances techniques et économiques du système électrique français et européen : gestion des risques, gestion des actifs et exploitation du système, gestion de l'équilibre offre/demande, construction de l'architecture du marché, insertion de nouveaux composants dans le réseau... Nous présenterons quelques-unes des problématiques qui font appel à la modélisation mathématique, par exemple pour expliquer ou prévoir (les flux, la consommation, les échanges, les productions à base d'énergies renouvelables…) à toutes échelles de temps et d'espace, ou pour observer le réseau et suivre le vieillissement des équipements, avec l'analyse des données issues de la numérisation des équipements ou des images prises par des drones…
  • Le 1er juin 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Claire Delplancke IMT
    Entrelacements et facteurs de Stein pour les processus de naissance-mort
    Dans cet exposé, on s'intéressera à des relations d'entrelacement entre processus de naissance-mort et gradient discret. Ces relations, qui peuvent être vues comme un raffinement du critère de Bakry-Emery, existent au premier ordre ; on établit l'analogue au second ordre, pour le Laplacien discret. La principale application concerne les facteurs de Stein associés aux mesures de probabilité sur N. L'évaluation de ces facteurs est une étape-clé de la méthode de Stein, qui permet de majorer la distance entre deux mesures de probabilité.
  • Le 14 septembre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Edoardo Provenzi IMB
    Le modèle de Philipona-O'Regan, les couleurs pures et les propriétés de la reflectance des surfaces
    Dans le séminaire je vais discuter une formalisation mathématique du modèle de Philipona et O'Regan pour la représentation de l'information rétinienne de la reflectance des surfaces. En particulier, je montrerai les interactions de ce modèle avec 1) la caractérisation des couleurs pures et 2) la technique diagonale de von Kries utilisée en traitement d'images en couleur pour atteindre la balance des blancs.
  • Le 28 septembre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Matthieu Lerasle Université Paris-Saclay
    Apprentissage de données latentes sur des graphes partiellement observés
    Le modèle de Bradley-Terry (introduit par Zermelo) étudie des championnats ou les participants sont comparés par paires. Le problème statistique de base est de retrouver la valeur des participants à partir de l'observation de ces comparaisons. On sait que ce problème ne peut être résolu que lorsque le graphe orienté ou une arrête est tracée du joueur i vers le joueur j lorsque i a battu j est fortement connexe. Nous nous intéressons à un championnat ou chaque participant joue une fois par journée. On peut montrer (on le conjecture fortement en tout cas) qu'alors, le temps d'atteinte de forte convexité est de l'ordre de log N journées lorsque les valeurs des joueurs sont bornées. Pour faire des prédictions sur l'issue du championnat avant ce temps, nous proposons de modéliser la variabilité des joueurs par des variables aléatoires dont nous cherchons à estimer la loi. Ce changement de point de vue a le double avantage de fournir un nouvel objectif statistiquement atteignable tout en fournissant une information d'intérêt dans des cas pratiques. Je présenterai quelques résultats déjà obtenus dans ce cadre avec R. Diel et S. Le Corff et discuterai quelques extensions sur lesquelles nous nous penchons.
  • Le 5 octobre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Sami Capderou IMB
    Estimation récursive non paramétrique de la dérivée..d'une fonction de régression avec applications en valvométrie
    Cet exposé est consacré à l'estimation non paramétrique de la dérivée d'une fonction de régression. On propose une procédure statistique efficace basée sur la dérivée de la version récursive de l'estimateur de Nadaraya-Watson. On montre la convergence presque sûre ainsi que la normalité asymptotique de notre estimateur. Ces résultats théoriques sont utilisés sur des données réelles afin de surveiller la qualité des eaux côtières.
  • Le 12 octobre 2017 à 10:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Paul Escande
    Méthodes numériques pour la résolution de problèmes inverses et d'apprentissage pour la grande dimension
    Dans cet expose, je présenterai une vue globale de mes travaux de recherches. Ils ont été motives par des problématiques de traitement d'images. Récemment, mon champ d'intérêt s'est agrandi à l'analyse de données en grandes dimensions et aux problèmes d'apprentissage. Le problème de restauration d'images dégradées par des flous variables connaît un attrait croissant et touche plusieurs domaines tels que l'astronomie, la vision par ordinateur et la microscopie à feuille de lumière où les images peuvent être constituées de milliards de voxels. Les flous variables peuvent être modélisés par des opérateurs intégraux linéaires. Une fois discrétisés pour être appliqués sur des images de N pixels, ces opérateurs peuvent être vus comme des matrices gigantesques de taille N x N. Pour les applications visées, les matrices contiennent 10^(18) coefficients. On voit apparaître ici les difficultés liées à ce problème de restauration des images qui sont i) le stockage de ce grand volume de données, ii) les coûts de calculs prohibitifs des produits matrice-vecteur. On dit que ce problème souffre du fléau de la dimension. De plus, dans beaucoup d'applications, l'opérateur de flou n'est pas ou que partiellement connu. Il faut donc simultanément estimer et approcher ces opérateurs intégraux. Je présenterai de nouveaux modèles et méthodes numériques avec des garanties théoriques fortes permettant de traiter ces difficultés.
  • Le 12 octobre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Lénaïc CHIZAT(ENS)
    Transport optimal entre mesures positives de masse quelconque
    Comment déplacer un tas de terre d'une configuration à une autre à moindre coût? Cette question est à l'origine du problème du transport optimal. Une fois défini formellement, celui-ci fournit un certain nombre d'outils, d'intérêt théorique et applicatif, pour manipuler les mesures de probabilité sur un espace métrique. L'objet de cet exposé est de montrer comment ces outils s'étendent au cas de mesures positives de masse quelconque. Dans un premier temps, nous verrons différentes approches pour aborder ce cadre (formulations de couplage, de "lifting" ou dynamiques) ainsi que les relations qui les lient. Nous introduirons en particulier une famille de métriques analogues aux métriques de Wasserstein. Dans un second temps, nous verrons comment étendre l'algorithme de Sinkhorn pour résoudre numériquement ce nouveau genre de problèmes. Nous conclurons avec des applications aux barycentres et flots de gradient dans l'espace des mesures positives. Cet exposé ne suppose pas de prérequis sur la théorie du transport optimal.
  • Le 9 novembre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Yann Traonmilin IMB
    Super-résolution d'impulsions de Diracs par échantillonnage de Fourier aléatoire.
    Estimer des sommes d'impulsions de Diracs à partir d'observations linéaires en utilisant des méthodes variationnelles convexes a récemment été l'objet de différentes études : il a été montré que si les Diracs sont suffisamment séparés, il est possible d'estimer leurs positions après leur convolution par un filtre passe-bas. Ce problème de super-résolution a de plus été relié à un problème de reconstruction de densité de probabilité à partir de moments empiriques généralisés ("sketches"), qui permet d'effectuer des tâches d'apprentissage statistique à partir de bases de données compressées. Ces résultats suggèrent qu'une somme d'impulsions de Diracs peut être estimée à partir de mesures de Fourier aléatoires au lieu de mesures régulières des basses fréquences. Dans cet exposé, de nouveaux résultats sur l'estimation de somme de Diracs à partir d'observations de Fourier aléatoires sont présentés. Des expériences illustrent les implications de ces résultats en traitement du signal et en apprentissage statistique. Enfin, le cadre général utilisé pour dériver ces résultats permet d'entrevoir des pistes prometteuses tant pratiques que théoriques pour des problématiques d'estimation en traitement du signal et en apprentissage statistique.
  • Le 16 novembre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Emmanuel Soubies EPFL
    Relaxations continues exactes pour le critère des moindres carrés pénalisé en norme l0
    De nombreux problèmes inverses en traitement du signal et des images peuvent se formaliser comme la minimisation d'un critère du type l2-l0. D'autre part, un nombre important de relaxations continues (non-convexe) de cette fonctionnelle ont été proposées. Dans cet exposé, de nouveaux résultats permettant de comparer de telles relaxations du point de vue de leur fidélité au problème initial seront présentés. En particulier, nous mettrons en évidence des conditions nécessaires et suffisantes pour que des pénalités séparables approchant la pseudo-norme l0 conduisent à des relaxations exactes du problème initial. Par exactes, il est entendu que les fonctionnelles relaxées préservent les minimiseurs globaux de la fonctionnelle initiale sans ajouter de nouveaux optima locaux. Les conditions ainsi obtenues définissent une classe de pénalités dont la limite inférieure (CEL0) sera plus amplement étudiée. Les propriétés spécifiques de cette pénalité CEL0 seront présentées et des résultats (empiriques) montrant qu'elle est celle permettant d'éliminer le plus de minimiseurs locaux (non globaux) du problème initial seront exposés. Finalement, des exemples d'applications pour différents problèmes inverses comme la localisation de molécules uniques en microscopie ou l'estimation des directions d'arrivées en traitement d'antennes termineront cette présentation.
  • Le 23 novembre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Barbara Gris KTH Stockholm
    Estimer et utiliser un a priori de déformation pour l'appariement d'images
    Une méthode générale pour l'appariement de deux images repose sur l'estimation d'une déformation (un difféomorphisme) transportant la première image sur la seconde. Cette déformation est obtenue en minimisant une fonctionnelle et, dans le cas où plusieurs motifs de déformations sont possibles, l'algorithme de minimisation converge généralement vers l'une des solutions sans que l'on puisse choisir a priori laquelle. Nous avons développé un nouveau cadre pour construire des difféomorphismes de sorte qu'un a priori sur les motifs de déformations puisse être facilement incorporé. Cet a priori peut par example correspondre à une connaissance sur les déformations "réalistes" étant données la nature des images considées. De plus ce cadre permet d'estimer automatiquement cet a priori à partir d'une série d'images et de l'incorporer ensuite simplement dans l'appariement de nouvelles images. Notre cadre est basé sur la notion de modules de déformation qui sont des structures capables de générer des champs de vecteurs d'un type particulier et paramétrés en petite dimension. Il est possible de combiner plusieurs modules de déformations pour générer des déformations multi-modulaires et c'est par le choix des modules de déformations utilisés que l'on peut incorporer un a priori de déformation dans l'appariement de deux images.
  • Le 7 décembre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Arthur Leclaire CMLA ENS Cachan
    Modèles aléatoires pour la synthèse et la complétion d'images de textures
    Dans cet exposé on propose d'étudier différents modèles aléatoires pouvant être utilisés pour la synthèse de textures par l'exemple : partant d'une image originale de textures, on cherche à produire une image (de taille arbitrairement grande) ayant le même aspect textural que l'entrée tout en étant la plus innovante possible. En termes mathématiques, ceci revient à chercher un champ aléatoire stationnaire de maximum d'entropie qui respecte un certain nombre de contraintes statistiques liées à la perception de textures. Le modèle gaussien donne la solution optimale lorsque les statistiques choisies sont les moments d'ordre un et deux. Ce modèle a permis, grâce à ses propriétés théoriques (description spectrale, calcul des distances de transport optimal), de synthétiser efficacement et mélanger des textures peu structurées, appelées microtextures. Dans cet esprit, on montrera que l'approximation par des modèles spot noise permet de synthétiser des microtextures de façon très rapide et parallèle (atteignant la résolution full HD en temps réel). Aussi on verra que la synthèse conditionnelle gaussienne permet de résoudre le problème de la complétion (inpainting) de microtextures. Ensuite, on expliquera comment modifier le modèle gaussien à l'aide de transformations locales de façon à réimposer la distribution empirique locale de l'image d'entrée. Ces transformations locales sont conçues pour résoudre un problème de transport optimal semi-discret dans l'espace des patches (imagettes carrées de taille petite fixée). Cet espace étant de grande dimension, ce problème de transport est résolu par optimisation stochastique. Une fois cette transformation locale calculée, on verra que le modèle resultant permet de synthétiser rapidement des textures plus structurées tout en conservant un contrôle statistique et une garantie d'innovation.
  • Le 14 décembre 2017 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Irène Kaltenmark Université Aix-Marseille
    Modèles géométriques de croissance en anatomie computationnelle
    L'utilisation de groupes de difféomorphismes agissant sur des ensembles de formes, équipant ces derniers d'une structure riemannienne, s'est avérée extrêmement efficace pour modéliser et analyser la variabilité de populations de formes issues de données d'imagerie médicale. Néanmoins, à l'intégration de l'analyse longitudinale des données, ont émergé des phénomènes biologiques de croissance ou de dégénérescence se manifestant par des déformations de nature non difféomorphique. La croissance d'un organisme par adjonction progressive et localisée de nouvelles molécules, à l'instar d'un processus de cristallisation, ne s'apparente pas à un simple étirement du tissu initial. Face à cette observation, nous proposons de garder l'esprit géométrique qui fait la puissance des approches difféomorphiques dans les espaces de formes mais en introduisant un concept assez général de déploiement où l'on modélise les phénomènes de croissance comme le déploiement optimal progressif d'une forme préalablement repliée dans une région de l'espace. À la question délicate de la caractérisation des appariements partiels modélisant le déploiement de la forme, nous répondons par un système de coordonnées biologiques évolutif et nous aboutissons finalement à un nouveau problème de contrôle optimal pour l'assimilation de données de surfaces évoluant dans le temps.
  • Le 18 janvier 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Frederic Barraquand IMB
    Population dynamics in random environments: theoretical and statistical problems from ecology
    In this talk, I will present two subfields of quantitative ecology that require modelling the population dynamics of one or several species in random environments: - Theory: what is the effect of increased variability in a forcing on population dynamics (e.g., can increased climate variability imperil bird populations?) - Statistics: how to estimate interactions between species using multivariate autoregressive models and time series of counts. This endeavour connects to the definition of statistical causality (e.g., Granger causality), debated in neuroscience & econometrics as well. For both themes, I will highlight both ongoing work in ecology and related fields, as well as opportunities for further research at the applied probability/statistics - ecology interface.
  • Le 25 janvier 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Yvain Queau TU Munich
    Méthodes variationnelles pour la vision 3D photométrique
    La reconstruction 3D, qui consiste à acquérir une représentation en trois dimensions du monde à partir d'images, constitue l'un des problèmes majeurs de la vision par ordinateur. Dans cet exposé, nous nous intéresserons plus particulièrement aux approches dites "photométriques", c'est-à-dire fondées sur l'analyse des valeurs mesurées par un appareil photographique. Nous verrons comment obtenir des reconstructions denses et de haute précision en inversant le processus de formation de l'image, qui fait intervenir le relief de la scène, sa réflectance et le flux lumineux qui l'éclaire. Des applications à la métrologie, au rééclairage, à l'inspection visuelle de surfaces et à la super-résolution de cartes de profondeur pour les capteurs RGB-D seront présentées. Un soin particulier sera accordé à la modélisation mathématique rigoureuse de ce problème inverse, en vue d'élaborer des solutions numériques naturelles et élégantes. Nous discuterons notamment certains travaux récents fondés sur l'approche variationnelle. Ce cadre numérique à l'interface entre équations aux dérivées partielles, calcul des variations, inférence bayésienne et optimisation, se prête en effet particulièrement bien à l'élaboration de méthodes robustes et efficaces.
  • Le 1er février 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    -
    Sans titre

  • Le 8 février 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Guillaume Garrigos ENS
    Iterative regularization for general inverse problems
    In the context of linear inverse problems, we propose and study a general iterative regularization method allowing to consider large classes of regularizers and data-fit terms. We focus particularly on non-smooth data-fit terms, such like a Kullback-Liebler divergence, or an L1 distance. We treat these problems by designing an algorithm, based on a primal-dual diagonal descent method, designed to solve bilevel optimization problems. The key point of our approach is that, in presence of noise, the number of iterations of our algorithm acts as a regularization parameter. In practice this means that the algorithm must be stopped after a certain number of iterations. This is what is called regularization by early stopping, an approach which gained in popularity in statistical learning. Our main results establishes convergence and stability of our algorithm, and are illustrated by experiments on image denoising, comparing our approach with a more classical Tikhonov regularization method.
  • Le 1er mars 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pauline Tan CMAP
    ASAP : un algorithme de descentes proximales alternées par blocs pour l'optimisation non convexe
    Il existe un intérêt croissant pour l'optimisation non convexe par blocs, notamment depuis les schémas proposés par Xu et Yin et l'équipe de Bolte (et leur algorithme PALM) en 2013, et qui ont été suivis par de nombreux travaux. Ces schémas reposent sur des descentes de gradient proximal dans lesquelles l'opérateur proximal est défini par rapport aux termes de régularisation. Les travaux présentés ici traitent d'une classe très large de problèmes d'optimisation non convexes par blocs dans lesquels les régularisateurs (non convexes) sont différentiables sur le domaine de la fonction à optimiser. Nous proposons un algorithme simple qui alterne des descentes de gradient proximal dans lesquelles l'opérateur proximal est défini par rapport au terme de couplage (en pratique toujours "proximable"), ce qui en fait un algorithme "miroir" par rapport à PALM. Ce choix contribue en grande partie à la simplicité de l'algorithme qui permet l'utilisation de régularisateurs plus riches, adaptés aux applications considérées. Des variantes de notre algorithme (utilisation d'opérateurs proximaux généralisés ou accélération inertielle) seront également présentées. Deux applications de l'algorithme pour le traitement de données de grande taille issues de l'imagerie hyperspectrale infrarouge ont d'ores-et-déjà été développées et validées pour l'Onera, notre partenaire industriel, et une autre, en colorisation d'images, est en cours de développement. Il s'agit de travaux en collaboration avec Mila Nikolova (CNRS, CMLA, ENS Paris-Saclay)
  • Le 8 mars 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 385
    Luca Calatroni CMAP
    Modèles d'osmose anisotrope pour l'imagerie et applications
    Nous considérons une EDP de type diffusion-transport modélisant le phénomène physique non-symétrique de l'osmose et l'appliquons pour résoudre plusieurs tâches d'imagerie comme le clonage et la suppression des ombres. Pour ce dernier problème, afin de surmonter les artefacts sur la frontière d'ombre due à la seule action de l'opérateur de Laplace, nous étendons le modèle linéaire au moyen de poids de diffusion directionnels permettant une procédure combinée d'osmose-inpainting non-linéaire. En particulier, nous montrons des analogies avec les équations classiques d'inpainting du second ordre (Harmonique, AMLE, Variation Totale) et avec les opérateurs géométriques de Grushin. Nous présentons les détails numériques sur la mise en œuvre efficace du modèle au moyen de stencils appropriés imitants l'anisotropie à un niveau discret et appliquons le modèle à certaines tâches pour l'imagerie du patrimoine culturel.
  • Le 15 mars 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Antoine Godichon Université de Rouen
    Algorithmes stochastiques pour la statistique robuste en grande dimension
    La médiane géométrique est souvent utilisée en statistique du fait de sa robustesse. On s'intéresse donc à des estimateurs rapides de la médiane, qui consistent en des algorithmes de gradient stochastiques moyennés. On définit aussi un nouvel indicateur de dispersion robuste, appelé Matrice de Covariance Médiane, avant d'en donner des estimateurs récursifs. Cette matrice, sous certaines hypothèses, a les mêmes sous-espaces propres que la matrice de covariance, mais est moins sensible aux données atypiques, et est donc très intéressante pour l'Analyse en Composantes Principales Robuste. Travail joint avec Hervé Cardot et Peggy Cénac (Université de Bourgogne).
  • Le 22 mars 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Clement Pellegrini UPS Toulouse
    Produits aléatoires de matrices: mesure invariante de trajectoires quantiques
    Les trajectoires quantiques sont des processus de Markov décrivant l'évolution de systèmes quantiques soumis à des mesures indirectes. Ces processus de Markov sortent du cadre habituel des techniques utilisées pour étudier leur comportement en temps long. Dans mon exposé je reviendrai sur les principes de base qui décrivent les modèles probabilistes de la mécanique quantique et je décrirai les modèles de trajectoires quantiques puis je parlerai du problème de la mesure invariante.
  • Le 29 mars 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérémie Bigot IMB
    Introduction au Deep learning : aspects mathématiques et au delà...

  • Le 5 avril 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérémie Bigot
    Introduction au Deep learning : aspects mathématiques et au delà... (Partie 2)

  • Le 26 avril 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    -
    Sans titre

  • Le 17 mai 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Dacam Pham Thi Univ. Tours
    The survival probability of a critical multi-type branching process in i.i.d. random environment
    Conditioned on the generating functions of offspring distribution, we study the asymptotic behaviour of the probability of non-extinction of a critical multi-type Galton-Watson process in i.i.d. random environments by using limits theorems for products of positive random matrices. Under some certain assumptions, the survival probability is proportional to $1/\sqrt{n}$.
  • Le 24 mai 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jean-Marc Azais IMT Toulouse
    Simple and multiple spacing test for the Lasso.
    Recent advances in Post-Selection Inference have shown that conditional testing is relevant and tractable in high-dimensions. In the Gaussian linear model, further works have derived unconditional test statistics such as the Kac-Rice Pivot for general penalized problems. In order to test the global null, a prominent offspring of this breakthrough is the spacing test that accounts the relative separation between the first two knots of the celebrated least-angle regression (LARS) algorithm. However, no results have been shown regarding the distribution of these test statistics under the alternative. For the first time, this paper addresses this important issue for the spacing test and shows that it is unconditionally unbiased. Furthermore, we provide the first extension of the spacing test to the frame of unknown noise variance. More precisely, we investigate the power of the spacing test for LARS and prove that it is unbiased: its power is always greater or equal to the significance level α. In particular, we describe the power of this test under various scenarii: we prove that its rejection region is optimal when the predictors are orthogonal; as the level α goes to zero, we show that the probability of getting a true positive is much greater than α; and we give a detailed description of its power in the case of two predictors. Moreover, we numerically investigate a comparison between the spacing test for LARS and the Pearson's chi-squared test (goodness of fit). Joint work with Yohann de Castro and Stéphane Mourareau.
  • Le 31 mai 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Salem Said IMS
    Présentation de l'article "Practical Riemannian Neural Networks" par G. Marceau-Caron & Y. Ollivier
    L'article présenté est disponible ici : https://arxiv.org/pdf/1602.08007.pdf
  • Le 7 juin 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Julien Worms Université de Versailles
    Statistique des valeurs extrêmes pour données censurées
    Cet exposé abordera le problème de l'estimation statistique de la queue d'une distribution univariée, dont seul un échantillon aléatoirement censuré (à droite) est disponible. Après des rappels sur la statistique des valeurs extrêmes et sur les données censurées, des estimateurs de l'indice des valeurs extrêmes seront présentés dans le cadre de lois à queues lourdes. Ces estimateurs ont la forme de sommes pondérées impliquant l'estimateur de Kaplan-Meier évalué dans toute la queue de l'échantillon, l'un d'entre eux s'écrivant comme une intégrale de Kaplan-Meier avec fonctionnelle non-bornée à support glissant. On évoquera leurs performances par rapport à leurs concurrents, en particulier dans des cadres de censure forte (le seuil de 50% de censure dans la queue jouant ici un rôle clé), et on montrera comment et dans quel cadre la normalité asymptotique peut être obtenue. Si le temps le permet, les extensions à d'autres cadres (queues plus légères, censure en présence de risques concurrents, quantiles extrêmes) seront abordées. Travail en collaboration avec Rym Worms (Univ. Paris-Est-Créteil) et aussi Jan Beirlant (KU Leuven).
  • Le 14 juin 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pascal Vallet IMS
    Présentation de l'article "A Random Matrix Approach to Neural Networks" par Louart, Liao & Couillet
    présentation du papier : Louart, Liao & Couillet "A Random Matrix Approach to Neural Networks" disponible ici --> https://arxiv.org/pdf/1702.05419.pdf
  • Le 21 juin 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Salem Said IMS
    Suite de la présentation de l'article 'Practical Riemannian Neural Networks' par G. Marceau-Caron & Y. Ollivier

  • Le 13 septembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Yann Traonmilin IMB
    Is the 1-norm the best convex sparse regularization?
    The 1-norm is a good convex regularization for the recovery of sparse vectors from under-determined linear measurements. No other convex regularization seems to surpass its sparse recovery performance. How can this be explained? To answer this question, we define several notions of “best” (convex) regularization in the context of general low-dimensional recovery and show that indeed the 1-norm is an optimal convex sparse regularization within this framework.
  • Le 27 septembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Arthur Leclaire IMB
    Modèles de Maximum d'Entropie pour la Synthèse et la Reconstruction d'Images

  • Le 18 octobre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Camille Male IMB
    Liberté asymptotique sur la diagonale des grandes matrices aléatoires
    La théorie des probabilités libres a été introduite par Voiculescu dans les années 1980 pour l'étude des algèbres de von Neumann des groupes libres. Les variables aléatoires non commutatives sont des objets abstraits, modélisés par des éléments d'une algèbre commutative équipée d'une forme linéaire. La notion de liberté remplace celle d'indépendance statistique. Les grandes matrices aléatoires jouent un rôle important en probabilités libres, puisque les limites en grande dimension de modèles élémentaires sont libres. Cependant, certains modèles élémentaires nécessitent un cadre étendue pour une analyse non commutative. La théorie des "trafics" est un cadre mathématique qui complète celui de Voiculescu pour l'étude de ces objets. Elle vient avec une notion d'indépendance qui unifie les différentes notions d'indépendances et libertés non commutatives. Dans cet exposé, je présenterai les premiers éléments analytiques de la théorie avec la notion de liberté sur la diagonale. Ce résultat est le travail d'une collaboration avec B. Au, G. Cébron, A. Dahlqvist et F. Gabriel.
  • Le 8 novembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérémie Bigot IMB
    Transport optimal pour l'analyse de données de cytométrie en flux (Séminaire de Statistique Bordelais)
    We present a framework to simultaneously align and smooth data in the form of multiple point clouds sampled from unknown densities with support in an Euclidean space. This work is motivated by applications in bioinformatics where researchers aim to automatically homogenize large datasets to compare and analyze characteristics within a same cell population. Inconveniently, the information acquired is most certainly noisy due to mis-alignment caused by technical variations of the environment. To overcome this problem, we propose to register multiple point clouds by using the notion of regularized Wassearstein barycenters of a set of probability measures. We propose data-driven choices for the regularization parameters involved in our approach using the Goldenshluger-Lepski's principle, and an application to the analysis of flow cytometry data is finally proposed.
  • Le 15 novembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Laurent Ménard U. Paris Nanterre
    Triangulations aléatoires couplées à un modèle d'Ising
    En 2003 Angel et Schramm ont prouvé que la mesure uniforme sur les triangulations de taille donnée converge faiblement pour la topologie locale lorsque la taille tend vers l'infini, ouvrant la voie à de nombreux travaux probabilistes sur les limites de cartes aléatoires. Dans cet exposé, nous étudierons des triangulations couplées à un modèle d'Ising tirées non pas selon la loi uniforme, mais en fonction de l'énergie de la configuration d'Ising. Après avoir présenté la combinatoire de ces objets, nous expliquerons comment l'approche d'Angel et Schramm s'adapte à ce modèle. L'objet limite a des propriétés qui s'avèrent intéressantes et est conjecturé appartenir à une autre classe d'universalité que les modèles classiques de cartes. Travail en commun avec Marie Albenque et Gilles Schaeffer.
  • Le 22 novembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Antoine Houdard
    Comment utiliser un modèle de mélange de gaussiennes sur les patchs pour le débruitage d'image ?..
    Dans la littérature du débruitage d'image par patchs, de nombreuses méthodes utilisent une modélisation statistique des patch. Les modèles a priori généralement utilisés sont des modèles gaussiens ou de mélange de gaussiennes. Dans cet exposé, après avoir brièvement introduit le cadre statistique, je proposerai quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori gaussiens sont-ils largement utilisés ? Quelles informations encodent-ils ? La seconde partie propose un modèle probabiliste de mélange pour les patchs bruités adapté à la grande dimension. Il en résulte un algorithme de débruitage reposant uniquement sur des estimations statistiques, qui atteint les performances de l'état-de-l'art. Enfin, je discuterai des limitations et des développements possibles de la méthode proposée.
  • Le 29 novembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérémie Bigot IMB
    Deep learning pour modèles génératifs à variables latentes (Séminaire Aspects Mathématiques du Deep Learning)
    Dans cet exposé, il est proposé de donner un aperçu des travaux existants sur les aspects mathématiques (du point de vue des probabilités et de la statistique) des modèles génératifs à variables latentes basés sur l'utilisation des réseaux de neurons profonds qui ont connu récemment de nombreux développements notamment pour le traitement d'images. On discutera en particulier des modèles Variational Auto-Encoder (VAE) et Generative Adversarial Network (GAN) et de leurs liens avec la théorie du transport optimal et des distances de Wasserstein entre mesures de probabilités.
  • Le 6 décembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Maxime Sangnier Sorbonne University
    What can a statistician expect from GANs?
    Generative Adversarial Networks (GANs) are a class of generative algorithms that have been shown to produce state-of-the art samples, especially in the domain of image creation. The fundamental principle of GANs is to approximate the unknown distribution of a given data set by optimizing an objective function through an adversarial game between a family of generators and a family of discriminators. In this talk, we illustrate some statistical properties of GANs, focusing on the deep connection between the adversarial principle underlying GANs and the Jensen-Shannon divergence, together with some optimality characteristics of the problem. We also analyze the role of the discriminator family and study the large sample properties of the estimated distribution.
  • Le 13 décembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Nicolas Keriven ENS Paris
    Scalable model-free online change-point detection with NEWMA
    We consider the problem of detecting abrupt changes in the distribution of a multi-dimensional time series, with limited computing power and memory. In this paper, we propose a new method for model-free online change-point detection that relies only on fast and light recursive statistics, inspired by the classical Exponential Weighted Moving Average algorithm (EWMA). The proposed idea is to compute two EWMA statistics on the stream of data with different forgetting factors, and to compare them. By doing so, we show that we implicitly compare recent samples with older ones, without the need to explicitly store them. Additionally, we leverage Random Features to efficiently use the Maximum Mean Discrepancy as a distance between distributions, and exploit a recently proposed optical device to compute these features with almost no computational cost, in any dimension. We show that our method is orders of magnitude faster than usual non-parametric methods for a given accuracy.
  • Le 20 décembre 2018 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Jean-François Aujol IMB
    L'accélération de Nesterov est-elle une accélération ?
    Depuis le travail de Y. Nesterov (1984), et surtout l'algorithme FISTA de Beck et Teboulle (2008), il est reconnu qu'utiliser un algorithme de gradient inertiel est beaucoup plus efficace pour minimiser une fonctionnelle convexe qu'un simple algorithme de descente de gradient. Nous verrons qu'en fait l'utilité de l'inertie dépend très fortement de la géométrie au voisinage du minimiseur de la fonctionnelle, et qu'il n'est pas toujours préférable d'utiliser un terme inertiel. Ces résultats ont des conséquences directes en traitement d'images et en deep learning. Il s'agit de travaux en collaboration avec Vassilis Apidopoulos, Charles Dossal, et Aude Rondepierre.
  • Le 17 janvier 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Emmanuel Gobet Ecole Polytechnique
    Uncertainty Quantification of Stochastic Approximation Limits
    We analyze the uncertainty quantification for the limit of a Stochastic Approximation (SA) algorithm. In our setup, this limit Phi* is defined as the zero of an intractable function and is modeled as uncertain through a parameter Theta: we aim at deriving the probabilistic distribution of Phi*(Theta), given a probability distribution for Theta. We introduce the so-called Uncertainty Quantification for SA (UQSA) algorithm, an SA algorithm in increasing dimension for computing the basis coefficients of a chaos expansion of Phi*(·) on an orthogonal basis of a suitable Hilbert space. UQSA returns a finite set of coefficients, it provides an approximation of the expectation, of the variance-covariance matrix and of higher order moments of Phi*(Theta). The almost-sure and Lp-convergences of UQSA, in the Hilbert space, are established under mild, tractable conditions and constitute original results, not covered by the existing literature for convergence analysis of infinite dimensional SA algorithms. Finally, UQSA is illustrated and the role of its design parameters is discussed through a numerical analysis.
  • Le 24 janvier 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pascal Maillard CRM & Paris Sud
    The algorithmic hardness threshold for continuous random energy models
    I will report on recent work with Louigi Addario-Berry on algorithmic hardness for finding low-energy states in the continuous random energy model of Bovier and Kurkova. This model can be regarded as a toy model for strongly correlated random energy landscapes such as the Sherrington--Kirkpatrick model. We exhibit a precise and explicit hardness threshold: finding states of energy above the threshold can be done in linear time, while below the threshold this takes exponential time for any algorithm with high probability. I further discuss what insights this yields for understanding algorithmic hardness thresholds for random instances of combinatorial optimization problems.
  • Le 31 janvier 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Sandrine Dallaporta CMLA\, ENS Paris-Saclay
    Statistiques linéaires des valeurs propres pour le modèle de Wigner déformé
    Dans cet exposé, on considère une matrice de Wigner déformée par une perturbation diagonale déterministe, notée Xn. Le comportement de la mesure spectrale empirique est connu et on s'intéresse aux fluctuations des statistiques linéaires des valeurs propres, c'est-à-dire aux quantités de la forme Tr f(Xn), où f est une fonction test. On présentera des résultats récents de Ji et Lee, établissant les fluctuations lorsque la fonction f est analytique, ainsi qu'un travail en collaboration avec Maxime Février (Université Paris-Sud).
  • Le 14 février 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Anna Ben-Hamou LPSM\, Paris 6
    Temps de mélange de marches aléatoires sur des graphes aléatoires à communautés
    Le temps de mélange d'une marche aléatoire sur un graphe connexe fini est intimement lié à l'existence de goulots d'étranglement dans le graphe: intuitivement, plus il est difficile pour la marche de passer d'une région du graphe à une autre, plus le mélange est lent. De plus, la présence de goulots d'étranglement étroits empêche souvent le phénomène de cutoff, qui décrit une convergence abrupte à l'équilibre. Dans cet exposé, nous nous intéresserons au comportement de mélange de la marche aléatoire sans rebroussement (« non-backtracking ») sur des graphes aléatoires à degrés prescrits et avec une structure en deux communautés. De tels graphes possèdent un goulot d'étranglement dont l'étroitesse peut être mesurée par la fraction des arêtes qui vont d'une communauté à l'autre. Sous certaines conditions de degrés, nous montrerons que si cette fraction décroit moins vite que 1/log(N) (où N est la taille du graphe), alors la marche présente le cutoff, et la distance à l'équilibre peut être décrite très précisément. Inversement, si cette fraction décroit plus vite que 1/log(N), alors il n'y a pas cutoff.
  • Le 7 mars 2019 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pierre Perruchaud IRMAR\, Rennes 1
    Perturbation géométrique des équations de la mécanique des fluides
    Les équations d'Euler, pour un fluide parfait incompressible, peuvent être décrites informellement de la façon suivante. Étant données une collection de particules de fluide ainsi que leurs vitesses, chaque particule tente de se déplacer en ligne droite ; cependant, elle est gênée par ses congénères qui occupent un volume incompressible, et doit donc se soumettre à la pression du groupe et infléchir sa course. L'intuition d'Arnol'd, dans les années 60, a été de reconnaître dans ce comportement une équation des géodésiques dans un espace de difféomorphismes. C'est cette reformulation que je tenterai de décrire dans mon exposé, avant d'expliquer comment la perturber et étudier sa limite.
  • Le 14 mars 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Erwann Hillion I2M\, Marseille
    Un critère de Nyman-Beurling probabiliste
    Parmi toutes les reformulations équivalentes à l'hypothèse de Riemann (HR), celle proposée par Nyman et Beurling dans les années 1950 est très simple à énoncer, elle exprime tout simplement la densité d'un sous-espace dans L^2(0,1).
    Dans cet exposé, je présenterai d'autres critères équivalents à HR, inspirés de celui de Nyman-Beurling, mais avec un aspect probabiliste supplémentaire : il s'agira d'étudier la densité de certains sous-espaces dans un Hilbert de la forme L^2((0,\infty) \times \Omega) .
    Cet exposé pourra intéresser les gens venant des probabilités ou de la théorie des nombres, et ne réclame pas de prérequis particulier.
    Travail joint avec Sébastien Darses (Aix-Marseille).
  • Le 28 mars 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Valentin de Bortoli CMLA\, ENS Paris-Saclay
    Stochastic Optimization and texture synthesis
    In this talk, I will present theoretical tools to assert the convergence of a gradient-based scheme, the SOUK algorithm (Stochastic Optimization with Unajdusted Kernel). We assume that the gradient of the function to optimize at point x can be written as the expectation of some function with respect to a probability distribution which might depend on x. Such functionals naturally appear in the Empirical Bayes framework, which aims at computing the hyperparameters of a statistical model using only the observations. I will present the key elements of our proof of convergence, which borrows from the litterature on stochastic optimization and Markov chain theory on general state spaces. Using recent work on unadjusted Langevin based dynamics we are able to provide convergence results in the context of parametric examplar-based texture synthesis. I will present visual results and discuss how SOUK compares to the state-of-the art algorithms for texture synthesis.
  • Le 4 avril 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Thi Kim Tien Truong IDP\, Orléans
    Sharp large deviations for the empirical correlation coefficient
    We consider the correlation coefficients of two samples. The main goal is to establish the sharp large deviations (SLD) for empirical correlation coefficients in two general cases: Spherical and Gaussian distributions. Moreover, we can obtain the asymptotic expansion of the SLD at any order development.
  • Le 11 avril 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Claire Launay CMLA\, ENS Paris-Saclay
    Discrete determinantal point processes and some applications on images
    Determinantal point processes are used to model the repulsion in certain sets of points. They capture negative correlations: the more similar two points are, the less likely they are to be sampled simultaneously. Therefore, these processes tend to generate sets of diverse or distant points. Unlike other repulsive processes, these have the advantage of being entirely determined by their kernel and there are exact algorithms to sample them. During this presentation, I will present the determinantal point processes in a general discrete framework and then in the one of the images: a 2D framework, stationary and periodic. We have studied the repulsion properties of such processes, in particular by using shot noise models, properties that are interesting for synthesizing microtextures. I will also present how the determinantal processes can be applied to the sub-sampling of an image in the patch space.
  • Le 2 mai 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Juliette Chevallier CMAP\, École Polytechnique
    A coherent framework for learning spatiotemporal piecewise-geodesic trajectories from longitudinal manifold-valued data
    Longitudinal studies are powerful tools to achieve a better understanding of temporal progressions of biological or natural phenomenons. For instance, efforts in chemotherapy monitoring rely more and more on the understanding of the global disease progression and not only on punctual states of health. Mixed effects models have proved their efficiency in the study of longitudinal data sets, especially for medical purposes. This talks presents a nonlinear mixed effects model which allows to estimate both a group-representative piecewise-geodesic trajectory and inter-individual variability. This model provides a generic and coherent framework for studying longitudinal manifold-valued data. Estimation is formulated as a well-defined and consistent Maximum A Posteriori (MAP). Numerically, due to the non-linearity of the proposed model, the MAP estimation of the parameters is performed through a stochastic version of the Expectation-Maximization algorithm. I will present a new version of the Stochastic-Approximation EM (SAEM) algorithm which prevent convergence toward local minima.
  • Le 9 mai 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Alasdair Newson Télécom Paristech
    Understanding geometric attributes with autoencoders
    Autoencoders are neural networks which project data to and from a lower dimensional latent space, the projection being learned via training on the data. While these networks produce impressive results, there is as yet little understanding of the internal mechanisms which allow autoencoders to produce such results. In this work, we aim to describe how an autoencoder is able to process certain fundamental image attributes. We analysed two of these attributes in particular : size and position. For the former, we study the case of binary images of disks, and describe the encoding and decoding processes. In the case of position, we describe how the encoder can extract the position of a Dirac impulse. Finally, we present ongoing work into an approach to create a PCA-like autoencoder, that is to say an autoencoder which presents similar characteristics to the PCA in terms of the interpretability of the latent space. We shall show preliminary experimental results on synthetic data.
  • Le 16 mai 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Tristan Benoist IMT
    Hypothesis testing for quasi upper Bernoulli probability measures on the one-sided shift of finite type
    The family of quasi upper Bernoulli shift invariant probability measures is weakly dense in the set of shift invariant probability measures but it is also distinct from weak Gibbs measures. This family of measures include i.i.d. distributions, Markov chains and some hidden Markov chains. They also naturally emerge as models of repeated measurements of quantum systems. This last application motivated the work I will present. With N. Cuneo, V. Jaksic, Y. Pautrat and C.-A. Pillet, we studied hypothesis testing for these measures and we were particularly interested in its application to thermodynamics for repeated quantum measurements. I will present part of our work. After an exposition of our physical motivations I will explain our proof of identifiability of the measures and equality of Stein's exponent. I will then explain how using sub additive thermodynamic formalism we can obtain differentiability of Rényi's relative entropy and equality of Hoeffding's exponents and equality of Chernoff's ones. I will finish the presentation with some examples highlighting the richness of this family of measures (connexion to number theory, phase transitions for 1D spin chains ...). Ref: CMP 2018 arXiv:1607.00162
  • Le 23 mai 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    François Bachoc IMT
    Uniformly valid confidence intervals post-model-selection
    We suggest general methods to construct asymptotically uniformly valid confidence intervals post-model-selection. The constructions are based on principles recently proposed by Berk et al. (2013). In particular the candidate models used can be misspecified, the target of inference is model-specific, and coverage is guaranteed for any data-driven model selection procedure. After developing a general theory we apply our methods to practically important situations where the candidate set of models, from which a working model is selected, consists of fixed design homoskedastic or heteroskedastic linear models, or of binary regression models with general link functions. In an extensive simulation study, we find that the proposed confidence intervals perform remarkably well, even when compared to existing methods that are tailored only for specific model selection procedures.
  • Le 6 juin 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Antonio Silveti-Falls GREYC\, EnsiCaen
    Generalized Conditional Gradient with Augmented Lagrangian for Composite Minimization
    We propose a splitting scheme which hybridizes generalized conditional gradient with a proximal step, which we call CGALP algorithm, for minimizing the sum of three proper convex and lower-semicontinuous functions in real Hilbert spaces. The minimization is subject to an affine constraint, that allows in particular to deal with composite problems (sum of more than three functions) in a separate way by the usual product space technique. While classical conditional gradient methods require Lipschitz-continuity of the gradient of the differentiable part of the objective, CGALP needs only differentiability (on an appropriate subset), hence circumventing the intricate question of Lipschitz continuity of gradients. For the two remaining functions in the objective, we do not require any additional regularity assumption. The second function, possibly nonsmooth, is assumed simple, i.e., the associated proximal mapping is easily computable. For the third function, again nonsmooth, we just assume that its domain is also bounded and that a linearly perturbed minimization oracle is accessible. In particular, this last function can be chosen to be the indicator of a nonempty bounded closed convex set, in order to deal with additional constraints. Finally, the affine constraint is addressed by the augmented Lagrangian approach. Our analysis is carried out for a wide choice of algo- rithm parameters satisfying so called "open loop" rules. We discuss asymptotic feasibility with respect to the affine constraint, boundedness of the dual multipliers, and convergence of the Lagrangian values to the saddle-point optimal value. We also provide subsequential and ergodic rates of convergence for both the feasibility gap and the Lagrangian values.
  • Le 13 juin 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Hatem Hajri SystemX
    Learning graph-structured data using Poincaré embeddings and Riemannian K-means algorithms
    Recent literature has shown several benefits of hyperbolic embedding of graph-structured data (GSD) in representing their structures and latent relations. While several studies have explored the ability of hyperbolic embedding to represent data (for example, by quantifying their mean average precision) and their ability to produce better visualisations of clusters, only few works exploited the effectiveness of hyperbolic embedding to perform learning on the initial GSD. Motivated by innovative ideas from the fields of Brain computer interfaces and Radar processing, this paper presents a new scheme for learning GSD based on hyperbolic embedding, Riemannian barycentre (i.e. Fréchet or geometric mean) and K-means algorithms as a significant tool that derives from it. The main idea is as follows. Relying on the Riemannian barycentre, we define a notion of minimal variance which allows us to choose an embedding between different ones. This embedding is used thereafter together with K-means algorithms to perform unsupervised clustering and in combination with the nearest neighbour rule to perform supervised learning. We demonstrate the performance of the proposed framework through several experiments on real-world social networks and hierarchical GSD. The obtained results outperform their counterparts in high-dimensional Euclidean spaces and recent proposed geometric approaches.
  • Le 12 septembre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jean-Claude Fort
    Convergence des coûts de Wasserstein pour les répartitions empiriques univariées
    Nous estimons des contrastes du type $\int_0 ^1 \rho(F^{-1}(u)-G^{-1}(u))du$ entre deux distributions de probabilités $F$ et $G$ sur $\mathbb R$ telles que l'ensemble $\{F=G\}$ est une union finie d'intervalles, éventuellement vide ou $\mathbb{R}$. La fonction de coût $\rho$ est positive, nulle en $0$, convexe et n'est pas nécessairement symétrique. L'échantillon observé provient d'une distribution jointe $H$ sur $\mathbb{R}^2$ de marginales $F$ et $G$ compatibles avec l'existence du contraste. Nous obtenons les taux de convergence en loi et les distributions limites dans de nombreuses situations incluant les distances de Wasserstein $W_1$ et $W_2$. Nous décrivons précisément le cas $F=G$ qui dépend du comportement de $\rho$ en $0$, que nous supposons à variation régulière entre $1$ et $2$, ceci en relation avec les queues de probabilités de $F$ et $G$. Les vitesses de convergence sont à variation régulière entre $1/2$ et $1$. La distribution limite dépend de $\rho$ en $0$ et de $H$.
  • Le 19 septembre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Claire Brecheteau École Centrale Nantes
    Robust shape inference from a sparse approximation of the Gaussian trimmed loglikelihood
    Given a noisy sample of points lying around some shape M, with possibly outliers or clutter noise, we focus on the question of recovering M, or at least geometric and topological information about M. Often, such inference is based on the sublevel sets of distance-like functions such as the function distance to M, the distance-to-measure (DTM) [2] or the k-witnessed distance [4].
    In this talk, we firstly widespread the concept of trimmed log-likelihood to probability distributions. This trimmed log-likelihood can be considered as a generalisation of the DTM. A sparse approximation of the DTM, the m-power distance-to-measure (m-PDTM), has been introduced and studied by Brécheteau and Levrard in 2017 [1]. Its sublevel sets are unions of m balls, with m possibly much smaller than the sample size. By miming the construction of the m-PDTM from the DTM, we propose an approximation of the trimmed log-likelihood associated to the family of Gaussian distributions on Rd. This approximation is sparse is the sense that its sublevel sets are unions of m ellipsoids. We provide a Lloyd-type algorithm to compute the centers and covariance matrices associated to the ellipsoids. We improve our algorithm by allowing an additional noise parameter to wipe out some points, just as the trimmed m-means algorithm of Cuesta-Albertos et al. [3]. Our algorithm comes together with a heuristic to select this parameter. Some illustrations on different examples enhance that our algorithm is efficient in wiping out clutter noise, recovering the shape and recovering the homology of M; this requiring a storage of only m points and covariance matrices.

    [1] Brécheteau, Claire and Levrard, Clément, The k-PDTM : a coreset for robust geometric inference, preprint, 2017.
    [2] Frédéric Chazal, David Cohen-Steiner and Quentin Mérigot, Geometric Inference for Probability Measures, Foundations of Computational Mathematics, 2011.
    [3] Cuesta-Albertos, Juan. A. and Gordaliza, Alfonso and Matran, Carlos, Trimmed k-means: an attempt to robustify quantizers, The Annals of Statistics, 1997.
    [4] Guibas, Leonidas J. and Mérigot, Quentin and Morozov, Dmitriy, Witnessed K-distance, SoCG '11, 2011.

  • Le 26 septembre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Adrien Richou IMB
    À propos des problèmes de commutation randonisés
    Les problèmes de commutation classiques sont des problèmes de contrôle stochastique optimal pour lesquels on a accès à plusieurs états avec des dynamiques aléatoires propres et où l'on cherche à optimiser les instants ou l'on change d'états tout en choisissant l'état après le changement. Dans cet exposé j'introduirai des nouveaux problèmes de type commutation pour lesquels l'état dans lequel on se trouve après le changement est tiré aléatoirement parmi tous les états possibles. Comme dans le cas classique, il est possible de caractériser la solution optimal à l'aide d'une équation différentielle stochastique rétrograde (EDSR) réfléchie obliquement. Il s'agit d'un travail en cours avec Cyril Bénézet et Jean-François Chassagneux (Univ. Paris Diderot).
  • Le 17 octobre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Michel Berthier Univ. de la Rochelle
    Géométrie de la perception des couleurs : les couleurs perçues à partir d'états quantiques réels et le rebit de Hering
    Inspiré par les résultats de Resnikoff, nous proposons une description quantique de l'espace des couleurs perçues comme espace des effets d'un rebit, c'est-à-dire d'un qubit réel, dont l'espace des états est isométrique au disque de Klein. Cet espace d'états chromatiques peut être représenté par un disque de Bloch de dimension 2, analogue réel de la boule de Bloch, qui coincide avec le disque de Hering associé au mécanisme d'opposition des couleurs.
  • Le 7 novembre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pierre Roussillon Télécom ParisTech
    Transport optimal robuste et régularisé appliqué à des données médicales
    Au cours de cet exposé, je présenterai les bases du transport optimal non équilibré avec régularisation entropique. La régularisation entropique permet de résoudre le problème de transport entre des millions de points à l'échelle de la minute grâce à une implémentation efficace. Nous verrons ensuite comment appliquer cet outil versatile à des données de tractogrammes (fibres cérébrales ou track probability maps). Les deux seuls paramètres du problème (le blur et le reach) sont alors pertinents anatomiquement, décrivant la distance minimum et maximum à laquelle deux fibres sont comparées. Les applications vont du transfert de segmentation à l'estimation de barycentre.
  • Le 21 novembre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jean-François Chassagneux LPSM\, Univ Paris Diderot
    Approximation d'EDSR par une méthode de gradient stochastique
    Les Equations Différentielles Stochastiques Rétrogrades (EDSR) sont des processus stochastiques qui permettent de représenter la solution de certaines EDP semi-linéaires de manière probabiliste. Elles sont utilisées pour proposer des méthodes probabilistes pour résoudre ces EDPs. Récemment, des techniques d'apprentissage ont permis de résoudre numériquement ces équations en grande, voire très grande, dimension. Nous allons présenter un algorithme, fondé sur une méthode de gradient stochastique, qui permet, en théorie, de contrôler le « fléau de la dimension » sous de bonnes hypothèses de régularité. Nous présenterons aussi des résultats numériques illustrant les possibilités de l'algorithme.
  • Le 28 novembre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Axel Flinth University of Gothenburg
    An iterative numerical scheme for solving TV-minimization problems relating to superresolution
    In recent years, inspired by the success of compressive sensing, interest has been drawn to TV-minimization as a mean to reconstruct sparse measures. Possible applications include spike resolution in imaging. The (measure-)TV minimization problem has nice theoretical features, but since it is infinite dimensional, the numerical resolution of it is not trivial.
    In this talk, we will discuss a class of algorithms called exchange algorithms for solving the TV-minimization problem. We will see that one version of it is equivalent to the celebrated conditional gradient method. We will also discuss a condition, tailormade for the sparse recovery problem, under which a particular version of the method converges at linear speed.
  • Le 19 décembre 2019 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Marc Arnaudon IMB
    Flot de courbure moyenne stochastique et mouvement brownien entrelacé
    L'évolution d'un ensemble par déformation de son bord suivant sa courbure moyenne intervient dans de nombreux phénomènes physiques. On s'intéresse ici à cette évolution, à laquelle on ajoute un bruit qui agit uniformément sur le bord, et un terme de renormalisation. On montre que cette évolution peut être couplée à un mouvement brownien qui reste à l'intérieur de l'ensemble, et qui en tout temps est réparti uniformément dans l'ensemble. C'est le phénomène de dualité et d'entrelacement, établi par Diaconis et Fill dans le contexte des chaînes de Markov à espaces d'états finis. Différents couplages sont proposés, dont certains font intervenir le temps local du mouvement brownien, soit sur le squelette de l'ensemble, soit sur les bords, et une corrélation plus ou moins forte entre le mouvement brownien à l'intérieur et le bord de l'ensemble qui vibre. Lorsque l'ensemble considéré est un intervalle réel symétrique, le bord évolue suivant un processus de Bessel de dimension 3, et on retrouve le théorème 2M-X de Pitman comme une situation particulière, avec l'un des couplages.
    C'est un travail en commun avec Koléhè Coulibaly (Institut Elie Cartan de Lorraine) et Laurent Miclo (Institut de Mathématiques de Toulouse)
  • Le 9 janvier 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Cyrus Mostajeran Cambridge University
    Geometric Thinking in Engineering and Applied Sciences
    Geometry occupies a uniquely illustrious place in the history of science. Many critical and celebrated advances in physics and various fields of mathematics have been achieved by viewing problems through a geometric lens. Recent years have witnessed a growing interest in the application of differential geometry to problems arising in engineering. In particular, the exploitation of symmetries and geometric invariance has led to great advances in fields such as optimisation, signal processing, statistical learning, medical imaging, material science, and inertial navigation and estimation in nonlinear automatic control. In this talk, I will review several topics in the engineering and applied sciences from my own research that are shaped by geometric thinking. Examples include consensus theory and monotone dynamical systems, statistics and optimisation in nonlinear spaces, as well as topographic mechanics and material design.
  • Le 16 janvier 2020 à 09:30
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jeunes Chercheurs IOP
    Session spéciale

  • Le 23 janvier 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Antoine Deleforge INRIA Nancy\, Loria
    Processing Sounds with a Little Help from Echoes
    When a sound wave propagates from a source through a medium and is reflected on surfaces before reaching microphones, the measured signals consist of a mixture of the direct path signal with delayed and attenuated copies of itself. This phenomenon is commonly referred to as "echoes", or "reverberation", and is generally considered as a nuisance in audio signal processing. After a gentle introduction to relevant concepts in acoustics and signal processing, this seminar will present recent works showing how acoustic echoes can be blindly estimated from audio recordings, using either non-linear inverse techniques or machine learning. We will then show how the knowledge of such echoes can in fact help some audio signal processing tasks such as the separation, enhancement or localisation of sound sources.
  • Le 30 janvier 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Louis Thiry DI\, ENS Ulm
    Deep Network Classification by Scattering and Homotopy Dictionary Learning
    We introduce a structured convolutional neural network which provides a simple model to analyze properties of deep representation learning and yields a higher classification accuracy than AlexNet over the ImageNet ILSVRC2012 dataset. This network is composed of a scattering transform which linearizes variabilities due to geometric transformations followed by a sparse l1 dictionary coding and a 2 hidden layer classifier. The whole pipeline is implemented in a deep convolutional network with a homotopy algorithm having an exponential convergence for the sparse l1 dictionary coding.
  • Le 13 février 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Vincent Duval Inria Paris\, Mokaplan
    Representing the solutions of total variation regularized problems
    The total (gradient) variation is a regularizer which has been widely used in inverse problems arising in image processing, following the pioneering work of Rudin, Osher and Fatemi. In this talk, I will describe the structure the solutions to the total variation regularized variational problems when one has a finite number of measurements. First, I will present a general representation principle for the solutions of convex problems, then I will apply it to the total variation by describing the faces of its unit ball. It is a joint work with Claire Boyer, Antonin Chambolle, Yohann De Castro, Frédéric de Gournay and Pierre Weiss.
  • Le 20 février 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Christèle Etchegaray Inria\, IMB
    Stochastic modeling of single-cell migration
    Cell migration is commonly involved in physiological and pathological phenomena. It is also a very complex process, since cell trajectories result from an intracellular self-organized activity spanning different space and time scales. In this talk, I will introduce a stochastic model for single cell trajectories based on a nonlinear measure-valued Markovian jump process for the membrane's deformation dynamics. Performing some scaling limit allows to obtain a nonlinear Stochastic Differential Equation for the cell velocity. Further analysis puts to light the ability of the model to capture several migratory behaviors and to derive key quantities of the dynamics. Finally, I will explain how this model can be enriched to take into account the cell's interaction with its environment.
  • Le 12 mars 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Barbara Pascal ENS Lyon
    How fractal texture segmentation turns to be a strongly convex optimization problem ?
    Texture segmentation still constitutes an ongoing challenge, especially when processing large-size images. The aim of this work is twofold.
    First, we provide a variational model for simultaneously extracting and regularizing local texture features, such as local regularity and local variance. For this purpose, a scale-free wavelet-based model, penalised by a Total Variation regularizer, is embedded into a convex optimisation framework. Second, we investigate convergence acceleration strategies, relying on strong-convexity of the objective function, in order to deal with computational cost induced by the minimization. Finally, we illustrate the developed procedures on real-world images of multiphasic flows.
  • Le 1er octobre 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Julie Delon MAP5\, Univ. Paris Descartes
    Une distance de Wasserstein entre mélanges de gaussiennes et quelques applications en traitement d'image
    Les modèles de mélanges de gaussiennes (GMM) s'avèrent particulièrement utiles pour représenter des distributions de probabilité complexes de données réelles. Par exemple, en traitement d'images, de nombreux travaux utilisent des GMM pour représenter des distributions de patchs dans les images, et ces modèles sont utilisés comme a priori pour la restauration d'image ou la synthèse de texture. Le transport optimal et les distances de Wasserstein sont aujourd'hui massivement utilisés pour analyser des statistiques extraites des images ou comme métriques en apprentissage profond. Si le transport optimal peut être utilisé pour définir des géodésiques entre GMM, les interpolées ainsi définies ne conservent pas la propriété d'être des mélanges de gaussiennes. Afin de conserver cette propriété, nous définissons une nouvelle distance entre mélanges en restreignant l'ensemble des mesures de couplage à des GMM dans la formulation originale du transport optimal. De manière surprenante, on montre que cette distance entre mélanges peut se réécrire sous la forme d'un problème de transport discret, ce qui la rend simple à calculer même en grande dimension. On étudie ses propriétés, le problème multi-marginal associé et les barycentres pour cette formulation. Finalement, on illustre son utilisation en traitement d'images.
  • Le 15 octobre 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Anas Barakat Télécom ParisTech
    Convergence and Dynamical Behavior of the ADAM Algorithm for Non-Convex Stochastic Optimization
    Adam is a popular variant of stochastic gradient descent for finding a local minimizer of a function. In the constant stepsize regime, assuming that the objective function is differentiable and non-convex, we establish the convergence in the long run of the iterates to a stationary point under a stability condition. The key ingredient is the introduction of a continuous-time version of Adam, under the form of a non-autonomous ordinary differential equation. This continuous-time system is a relevant approximation of the Adam iterates, in the sense that the interpolated Adam process converges weakly towards the solution to the ODE. The existence and the uniqueness of the solution are established. We further show the convergence of the solution towards the critical points of the objective function and quantify its convergence rate under a Lojasiewicz assumption. Then, we introduce a novel decreasing stepsize version of Adam. Under mild assumptions, it is shown that the iterates are almost surely bounded and converge almost surely to critical points of the objective function. Finally, we analyze the fluctuations of the algorithm by means of a conditional central limit theorem.
  • Le 12 novembre 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Arthur Mensch DMA\, École Normale Supérieure
    Online Sinkhorn: Optimal Transport distances from sample streams
    Optimal Transport (OT) distances are now routinely used as loss functions in ML tasks. Yet, computing OT distances between arbitrary (i.e. not necessarily discrete) probability distributions remains an open problem. This paper introduces a new online estimator of entropy-regularized OT distances between two such arbitrary distributions. It uses streams of samples from both distributions to iteratively enrich a non-parametric representation of the transportation plan. Compared to the classic Sinkhorn algorithm, our method leverages new samples at each iteration, which enables a consistent estimation of the true regularized OT distance. We provide a theoretical analysis of the convergence of the online Sinkhorn algorithm, showing a nearly-O(1/n) asymptotic sample complexity for the iterate sequence. We validate our method on synthetic 1D to 10D data and on real 3D shape data.
  • Le 19 novembre 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Quentin Mérigot Laboratoire de Mathématiques d'Orsay
    Stabilité quantitative en transport optimal
    Un théorème de Brenier affirme qu'étant donnée une densité de probabilité rho et une mesure de probabilité mu sur R^d, tous deux à support compact, il existe un unique plan de transport optimal T_\mu pour le coût quadratique, transportant rho vers mu. Nous nous intéressons à l'utilisation de T_\mu pour représenter une mesure mu: comme T_\mu appartient à l'espace de Hilbert L^2(\rho,R^d), ce plongement mu -> T_\mu permet en principe d'appliquer toute méthode statistique hilbertienne (analyse en composante principale, k-moyennes, apprentissage de dictionnaire) à des données à valeur mesures, e.g. des familles de nuages de points. Pour justifier cette approche, il est nécessaire de comprendre les propriétés de l'application mu -> T_\mu. Il est connu que l'application mu -> T_\mu est continue pour la topologie faible sur les mesures et la norme L^2(\rho) entre les plans de transport, mais la démonstration ne donne aucune information sur le module de continuité. Dans cet exposé, nous montrerons en utilisant des outils d'analyse fonctionnelle que T_\mu dépend de manière Hölderienne de mu pour un exposant de Hölder indépendant de la dimension. Travail en collaboration avec A. Delalande et F. Chazal.
  • Le 3 décembre 2020 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Raphaël Ducatez Université de Genève
    Spectre des graphes critiques d'Erdos Renyi
    Nous analysons le spectre de la matrice d'adjacence A du graphe aléatoire d'Erdős-Rényi G(N, d/N) dans le régime critique d = b log N. On établit une correspondance un à un entre les sommets de degré au moins 2d et les valeurs propres en dehors du bulk [-2, 2]. Cette correspondance implique une transition à un b* explicite. Pour d>b* log N, le spectre est contenu dans [-2, 2] et les vecteurs propres sont complètement délocalisés. Pour d< b* log N, une autre phase apparaît. Le spectre à l'extérieur de [-2, 2] est non vide et les vecteurs propres correspondants se concentrent autour des sommets de grand degré. En collaboration avec Antti Knowles et Johannes Alt
  • Le 17 décembre 2020 à 09:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Baptiste Huguet IMB
    Soutenance de thèse

  • Le 7 janvier 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Guillaume Carlier Cérémade\, Université Paris-Dauphine
    Systèmes d'EDPs liés aux barycentres dans l'espace de Wasserstein
    Les barycentres dans l'espace de Wasserstein qui généralisent l'interpolation de McCann à plus de deux mesures sont fréquemment utilisés dans des champs appliqués comme le traitement d'images ou les statistiques et il y a des algorithmes efficaces pour les calculer. Néanmoins, comme observé par Bigot, Cazelles et Papadakis ces barycentres présentent typiquement beaucoup d'oscillations quand on discretise les marges, c'est pourquoi ces auteurs ont proposé de régulariser le problème, typiquement avec une entropie. Dans cet exposé, je voudrais insister sur la caractérisation de ces barycentres Wasserstein « entropiques » en termes de systèmes d'équations de Monge-Ampère, je donnerai quelques résultats de régularité, un principe du maximum ainsi que des estimations sur les moments et l'information de Fisher et en déduirai un TCL pour les barycentres de mesures aléatoires i.i.d. L'exposé sera basé sur des travaux avec Martial Agueh et Katharina Eichinger et Alexey Kroshnin.
  • Le 20 janvier 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Joshep de Vilmarest
    TBA
    TBA
  • Le 21 janvier 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Julián Tachella University of Edinburgh
    Large system limit of convolutional neural networks for image denoising
    Convolutional Neural Networks (CNNs) are now a well-established tool for solving computer vision and imaging problems, and modern CNNs often obtain state-of-the-art performance. Perhaps surprisingly, it has been recently shown that, despite being highly overparameterized, such networks can be trained with a single corrupted image and still perform as well as fully trained networks - a phenomenon encapsulated in the deep image prior (DIP). Here we attempt to explain what might be going on in terms of recent advances of Neural Tangent Kernel (NTK) theory, which characterizes the large system limit of neural networks. We identify strong links between CNN architectures and well-known signal processing techniques such as non-local means, showing that the function associated with a CNN to a given image can be obtained in closed form without need to train the network. Although our analysis shows that the NTK still does not fully explain the DIP phenomenon, we argue it suggests that CNN's inductive bias is better characterized by images with non-local self-similar structure.
  • Le 28 janvier 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Nicolas Marie Modal'X\, Université Paris Nanterre
    Sur quelques extensions de la méthode PCO
    L'exposé portera sur deux extensions de la méthode PCO (Penalized Comparison to Overfitting) introduite dans Lacour, Massart et Rivoirard (2018). Initialement conçue pour sélectionner la fenêtre de l'estimateur de Parzen-Rosenblatt de la densité parente d'un $n$-échantillon à partir des données, cette méthode a l'avantage d'être numériquement performante, comme la cross-validation, mais également celui d'être pertinente du point de vue théorique comme la méthode de Goldenshluger-Lepski. En effet, une borne de risque pour l'estimateur adaptatif associé, dont la preuve repose notamment sur l'inégalité de concentration pour les U-statistics démontrée dans Houdré et Reynaud-Bourret (2003), a été démontrée. Nous proposerons une extension de la méthode PCO à la sélection des fenêtres d'un estimateur type Nadaraya-Watson en régression, ainsi qu'une extension de la méthode PCO à la sélection de la suite des fenêtres de l'estimateur récursif de Wolverton-Wagner de la densité. En réalité, la méthode PCO est également compatible avec le contexte de l'estimation par projection et cette question sera traitée durant l'exposé. Ce dernier porte sur plusieurs travaux en collaboration avec Fabienne Comte (Université Paris Descartes) et Hélène Halconruy (Université du Luxembourg).
  • Le 11 février 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Kévin Polisano LJK\, Université Grenoble Alpes
    Riesz-based orientation of localizable Gaussian fields
    Texture modeling and analysis are challenging issues of image processing. In many cases, the model has to incorporate some important characteristics of the data as roughness or anisotropy properties, that can be handled using a stochastic approach, involving fractional anisotropic random fields. We give a sense to the notion of orientation for self-similar Gaussian fields with stationary increments, based on a Riesz analysis of these fields, with isotropic zero-mean analysis functions. We propose a structure tensor formulation and provide an intrinsic definition of the orientation vector as eigenvector of this tensor. That is, we show that the orientation vector does not depend on the analysis function, but only on the anisotropy encoded in the spectral density of the field. Then, we generalize this definition to a larger class of random fields called localizable Gaussian fields, whose orientation is derived from the orientation of their tangent fields. Finally two classes of Gaussian models with prescribed orientation are studied in the light of these new analysis tools.
  • Le 25 février 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Samuel Vaiter Institut de Mathématiques de Bourgogne
    Hyper-Parameter Selection by Algorithmic Differentiation
    Setting regularization parameters for variational estimators in imaging or machine learning is notoriously difficult. Grid-search requires to choose a predefined grid of parameters and scales exponentially in the number of parameters which can be quickly inconvenient or even impossible in imaging. Another class of approaches casts hyperparameter optimization as a bi-level optimization problem, typically solved by gradient descent. The key challenge for these approaches is the estimation of the gradient w.r.t. the hyperparameters. In this presentation, I will show algorithmic/automatic differentiation can help to overcome this challenge, both for inverse problems with a differentiable Stein Unbiased Risk Estimator and in regression using held-out loss.
  • Le 4 mars 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    François-Pierre Paty CREST\, ENSAE Paris
    Regularizing Optimal Transport through Regularity Constraints
    Optimal transport (OT) suffers from the curse of dimensionality. Therefore, OT can only be used in machine learning if it is substantially regularized. In this talk, I will present a new regularization of OT which leverages the regularity of the Brenier map. Instead of considering regularity as a property that can be proved under suitable assumptions, we consider regularity as a condition that must be enforced when estimating OT. From a statistical point of view, this defines new estimators of the OT map and 2-Wasserstein distance between arbitrary measures. From an algorithmic point of view, this leads to an infinite-dimensional optimization problem, which, when dealing with discrete measures, can be rewritten as a finite-dimensional separately-convex problem. I will finish by sharing some recent ideas on how to speed up the algorithms. The talk is based on some joint work with Marco Cuturi and Alexandre d'Aspremont.
  • Le 18 mars 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Adrien Richou IMB
    Comment définir une notion d'espérance conditionnelle contrainte à prendre ses valeurs dans un ensemble non-convexe
    Dans un travail récent avec Jean-François Chassagneux (Université de Paris) et Sergey Nadtochiy (Illinois Institute of Technology) nous obtenons des résultats d'existence et d'unicité pour des équations différentielles stochastiques rétrogrades réfléchies dans un domaine non convexe. J'expliquerai dans cet exposé notre stratégie de preuve et quelques liens avec la géométrie stochastique.
  • Le 25 mars 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Emma Horton Inria\, Bordeaux
    Analyse stochastique de l'équation de transport des neutrons
    L'équation de transport des neutrons (NTE) est une équation d'équilibre qui décrit le mouvement net des neutrons à travers un milieu fissile inhomogène, tel qu'un réacteur nucléaire. Une façon de dériver la NTE est l'analyse stochastique d'un processus de branchement spatial. Cette approche est connue depuis les années 1960/70, cependant, depuis lors, très peu d'innovations dans la littérature ont vu le jour grâce à l'analyse probabiliste. Ces dernières années, cependant, les industries de l'énergie nucléaire et de la réglementation nucléaire ont davantage besoin d'une compréhension approfondie des propriétés spectrales de la NTE.
    Dans cet exposé, je décrirai formellement la dynamique du processus de branchement des neutrons, ainsi qu'une représentation de Feynman Kac associée. Je discuterai ensuite de la façon dont cette dernière peut être utilisée pour analyser le comportement à long terme des processus de fission nucléaire et comment nous pouvons l'utiliser pour développer des algorithmes pour simuler de tels processus.
  • Le 15 avril 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Arthur Leclaire IMB
    On the differential properties of WGAN-like problems
    The problem of WGAN (Wasserstein Generative Adversarial Network) learning is an instance of optimization problems where one wishes to find, among a parametric class of distributions, the one which is closest to a target distribution in terms of optimal transport (OT) distance. Applying a gradient-based algorithm for this problem requires to express the gradient of the OT distance with respect to one of its argument, which is related to the solutions of the dual problem (Kantorovich potentials). The first part of this talk aims at finding conditions that ensure the existence of such gradient. After discussing regularity issues that may appear with discrete target measures, we will show that regularity problems are avoided when using entropy-regularized OT. In the second part, we will see how these gradients can be exploited in a stable way to address some imaging problems where the target discrete measure is reasonably large. In particular, using OT distances between multi-scale patch distributions, this allows to estimate a generative convolutional network that can synthesize an exemplar texture in a faithful and very efficient way. This is a joint work with Antoine Houdard, Nicolas Papadakis and Julien Rabin.
  • Le 29 avril 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Derek Driggs CIA\, University of Cambridge
    Barriers to deploying deep learning models in healthcare
    A promising application for deep learning models is in assisting clinicians with interpreting X-ray and CT scans, especially when treating respiratory diseases. At the onset of the COVID-19 pandemic, radiologists had to quickly learn how to identify a new disease on chest X-rays and CT scans, and use this information to decide how to allocate scarce resources like ventilators. Researchers around the world developed deep learning models to help clinicians with these decisions, and some models were deployed after only three weeks of testing.
    Our group reviewed over 1,000 studies that introduce deep learning models for interpreting chest X-rays or CT scans of COVID-19 patients to determine which models, if any, have the potential to help clinicians during the pandemic. In this talk, I will present our findings and discuss how this pandemic could inform researchers creating deployable deep learning models in healthcare.
    This talk is based on the paper [1].
    [1] Roberts, M., Driggs, D., and the AIX-COVNET Collaboration. "Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans”. Nat. Mach. Intel. 3, 199–217 (2021).
  • Le 6 mai 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jonathan Vacher LSP\, ENS Ulm
    Texture Interpolation for Probing Visual Perception
    Texture synthesis models are important tools for understanding visual processing. In particular, statistical approaches based on neurally relevant features have been instrumental in understanding aspects of visual perception and of neural coding. New deep learning-based approaches further improve the quality of synthetic textures. Yet, it is still unclear why deep texture synthesis performs so well, and applications of this new framework to probe visual perception are scarce. Here, we show that distributions of deep convolutional neural network (CNN) activations of a texture are well described by elliptical distributions and therefore, following optimal transport theory, constraining their mean and covariance is sufficient to generate new texture samples. Then, we propose the natural geodesics (ie the shortest path between two points) arising with the optimal transport metric to interpolate between arbitrary textures. Compared to other CNN-based approaches, our interpolation method appears to match more closely the geometry of texture perception, and our mathematical framework is better suited to study its statistical nature. We apply our method by measuring the perceptual scale associated to the interpolation parameter in human observers, and the neural sensitivity of different areas of visual cortex in macaque monkeys.
  • Le 10 juin 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Nicoletta Prencipe IMB
    Relativité et perception des couleurs : une première application au traitement d'image
    La perception de la couleur est un processus basé sur la dualité entre contexte de mesure et appareil d'observation. C'est donc aussi un phénomène relatif aux conditions de mesure. Cette idée est à la base de l'utilisation des outils mathématiques de la mécanique quantique et de la relativité restreinte dans la modélisation de l'espace des couleurs perçues. Je vais introduire le cadre axiomatique du modèle quantique de la perception de la couleur à partir duquel on obtient de façon naturelle une théorie relativiste de la perception chromatique, justifiée de façon heuristique par Yilmaz en 1962. Le rôle de l'information identifiée comme achromatique est décisif, il est lié à la définition du concept d'observateur adapté et à la maximisation de l'entropie de von Neumann. En particulier une conséquence du caractère relativiste du modèle est qu'il est possible de modéliser les changements d'observateurs adaptés à différents illuminants par des transformations caractéristiques de la relativité restreinte : les boosts de Lorentz. J'expliquerai comment utiliser ces résultats pour la correction des couleurs dans un algorithme de balance des blancs.
  • Le 16 septembre 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Elsa Cazelles CNRS\, IRIT
    A novel notion of barycenter for probability distributions based on optimal weak mass transport.
    We introduce weak barycenters of a family of probability distributions, based on the recently developed notion of optimal weak transport of mass. We provide a theoretical analysis of this object and discuss its interpretation in the light of convex ordering between probability measures. In particular, we show that, rather than averaging in a geometric way the input distributions, as the Wasserstein barycenter based on classic optimal transport does, weak barycenters extract common geometric information shared by all the input distributions, encoded as a latent random variable that underlies all of them. We also provide an iterative algorithm to compute a weak barycenter for a finite family of input distributions, and a stochastic algorithm that computes them for arbitrary populations of laws. The latter approach is particularly well suited for the streaming setting, i.e., when distributions are observed sequentially.
  • Le 23 septembre 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Lucile Laulin IMB
    La marche aléatoire de l'éléphant et sa version renforcée
    La marche aléatoire de l'éléphant est un processus introduit au début des années 2000 en physique statistique. Il s'agit d'une marche aléatoire avec un paramètre de mémoire, a priori non-markovienne, et telle que la loi de chaque nouveau pas dépend de tous les pas précédents. On explicitera une approche martingale qui permet d'obtenir de nombreux résultats en dimension 1 ainsi qu'en dimension supérieure. On présentera ensuite une généralisation de la marche de l'éléphant avec un renforcement de la mémoire qu'on étudiera toujours à l'aide de martingales. Enfin on expliquera le lien entre un modèle généralisé d'urnes de Pólya et la marche de l'éléphant qui permet de retrouver certains des résultats présentés.
  • Le 7 octobre 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Laurent Jacques UCLouvain
    Interferometric Lensless Endoscopy: Rank-one Projections of Image Frequencies with Speckle Illuminations
    Lensless endoscopy (LE) with multicore fibers (MCF) enables fluorescent imaging of biological samples at cellular scale. In this talk, we will see that under a common far-field approximation, the corresponding imaging process is tantamount to collecting multiple rank-one projections (ROP) of an Hermitian "interferometric" matrix--a matrix encoding a subsampling of the Fourier transform of the sample image. Specifically, each ROP of this matrix is achieved with the complex vector shaping the incident wavefront (using a spatial light modulator), and, for specific MCF core arrangements, the interferometric matrix collects as many image frequencies as the square of the core number. When the SLM is configured randomly, this combined sensing viewpoint allows us to characterize the sample complexity of the system. In particular, by inspecting the separate dimensional conditions ensuring the specific restricted isometry properties of the two composing sensing models in the observation of sparse images, we show that a basis pursuit denoising (BPDN) program associated with an $\ell_1$-fidelity cost provably provides a stable and robust image estimate. Finally, preliminary numerical experiments demonstrate the effectiveness of this imaging procedure.
    This is an ongoing research made in collaboration with Olivier Leblanc (UCLouvain, Belgium), Siddharth Sivankutty (Cailabs, Rennes, Brittany, France), and Hervé Rigneault (Institut Fresnel, Marseille, France).
  • Le 21 octobre 2021 à 09:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    -
    Demie-journée de Rentrée de l'équipe IOP

  • Le 18 novembre 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Émilie Chouzenoux Inria Saclay\, en distanciel
    Unfolding proximal algorithms
    We show in this talk how proximal algorithms, which constitute a powerful class of optimization methods, can be unfolded under the form of deep neural networks. This yields to improved performance and faster implementations while allowing to build more explainable, more robust, and more insightful neural network architectures. Application examples in the domain of image restoration will be provided.
  • Le 25 novembre 2021 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Christian Léonard Université Paris Nanterre
    Transport optimal entropique, retournement de temps et transport optimal (usuel). Séminaire commun Analyse - IOP
    Felix Otto a découvert il y a une vingtaine d'années que le transport optimal quadratique sur une variété riemannienne M permet de définir la géométrie de Wasserstein sur l'espace des probabilités P(M) sur M. Les ingrédients de base de cette géométrie sont les interpolations par déplacement de McCann qui sont construites en remontant les géodésiques de M sur P(M) et jouent le rôle de géodésiques sur P(M). Si l'on remplace dans cette construction les géodésiques de M par des ponts browniens, on obtient naturellement une nouvelle notion d'interpolations sur P(M) : les interpolations entropiques. On sait qu'en faisant décroître la température des ponts brownien vers zéro on retrouve à la limite les interpolations par déplacement. Sans surprise, le retournement du temps de certains processus stochastiques associés aux interpolations entropiques (les ponts de Schrödinger) permet de quantifier l'écart énergétique entre les interpolations entropiques et leurs limites de McCann. Quelques conséquences bien établies et heuristiques du retournement du temps des ponts de Schrödinger seront présentées.
  • Le 2 décembre 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Titouan Vayer ENS Lyon
    Less is more ? How Optimal Transport can help for compressive learning
    Nowadays large-scale machine learning faces a number of fundamental computational challenges, triggered by the high dimensionality of modern data and the increasing availability of very large training collections. These data can also be of a very complex nature, such as those described by the graphs that are integral to many application areas. In this talk I will present some solutions to these problems. I will introduce the Compressive Statistical Learning (CSL) theory, a general framework for resource-efficient large scale learning in which the training data is summarized in a small single vector (called sketch) that captures the information relevant to the learning task. We will show how Optimal Transport (OT) can help us establish statistical guarantees for this type of learning problem. I will also show how OT can allow us to obtain efficient representations of structured data, thanks to the Gromov-Wasserstein distance. I will address concrete learning tasks on graphs such as online graph subspace estimation and tracking, graphs partitioning, clustering and completion.
  • Le 16 décembre 2021 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérôme Stenger Université Toulouse 3
    Optimal Uncertainty Quantification of a Risk Measurement
    Uncertainty quantification in a safety analysis study can be conducted by considering the uncertain inputs of a physical system as a vector of random variables. The most widespread approach consists in running a computer model reproducing the physical phenomenon with different combinations of inputs in accordance with their probability distribution. Then, one can study the related uncertainty on the output or estimate a specific quantity of interest (QoI). Because the computer model is assumed to be a deterministic black-box function, the QoI only depends on the choice of the input probability measure. It is formally represented as a scalar function defined on a measure space. We propose to gain robustness on the quantification of this QoI. Indeed, the probability distributions characterizing the uncertain input may themselves be uncertain. For instance, contradictory expert opinion may make it difficult to select a single probability distribution, and the lack of information in the input variables inevitably affects the choice of the distribution. As the uncertainty on the input distributions propagates to the QoI, an important consequence is that different choices of input distributions will lead to different values of the QoI. The purpose of this work is to account for this second level uncertainty. We propose to evaluate the maximum of the QoI over a space of probability measures, in an approach known as optimal uncertainty quantification (OUQ). Therefore, we do not specify a single precise input distribution, but rather a set of admissible probability measures defined through moment constraints. In the case where the QoI is a quasi-convex function, it is then optimized over this measure space. After exposing theoretical results showing that the optimization domain of the QoI can be reduced to the extreme points of the measure space, we present several interesting quantities of interest satisfying the assumption of the problem.
  • Le 6 janvier 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 285
    Stéphane Dartois
    Entanglement criteria for the bosonic and fermionic induced ensembles
    We introduce the bosonic and fermionic ensembles of density matrices and study their entanglement. In the fermionic case, we show that random bipartite fermionic density matrices have non-positive partial transposition, hence they are typically entangled. The similar analysis in the bosonic case is more delicate, due to a large positive outlier eigenvalue. We compute the asymptotic ratio between the size of the environment and the size of the system Hilbert space for which random bipartite bosonic density matrices fail the PPT criterion, being thus entangled. We also relate moment computations for tensor-symmetric random matrices to evaluations of the circuit-counting and interlace graph polynomials for directed graphs.
  • Le 13 janvier 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Slim Kammoun
    Mots de permutations invariantes
    Soient $w$ un mot du groupe libre $F_k=$ et $w(\sigma_1,\dots,\sigma_k)$ la permutation obtenue en remplaçant $x_i$ par $\sigma_i$ dans $w$. Il est connu que si $\sigma_1, \dots,\sigma_k$ sont des i.i.d uniformes, alors la trace non normalisée de $w(\sigma_1,\dots,\sigma_k)$ converge vers une limite qui ne dépend que du maximum des $d$ tels que il existe $\Omega\in F_k$ tel que $w=\Omega^d$. On s'intéresse au cas où les permutations sont non-uniformes (mais invariantes par conjugaison), les mêmes limites apparaissent sous des conditions sur les petits cycles. L'étude du cas non-uniforme est naturel et est motivée par une conjecture de Bukh et Zhou sur l'espérance de la longueur de la plus longue sous suite commune de deux permutations i.i.d.
  • Le 13 janvier 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Kilian Raschel
    Probabilités de persistance et polynômes de Mallows-Riordan
    Etant donnée une suite de variables aléatoires réelles X(1), X(2), etc., sa probabilité de persistance est la probabilité que les n premières variables soient toutes positives. Intéressantes du seul point de vue mathématique, ces quantités ont aussi beaucoup d'applications en physique. Dans cet exposé nous étudierons le cas où la suite de variables est auto-regressive d'ordre 1, c'est-à-dire lorsque X(n+1)=a*X(n)+U(n+1). Dans ce contexte, a est un paramètre et les variables U(1), U(2), etc., sont appelées innovations et forment une suite de variables indépendantes et identiquement distribuées. Le plus souvent, seules des estimées asymptotiques sont obtenues sur la persistance. Dans ce travail en commun avec Gerold Alsmeyer (Münster), Alin Bostan (Inria Saclay) et Thomas Simon (Lille), nous considérons le cas particulier où les U(1), U(2), etc., suivent des lois uniformes sur un intervalle. Nous montrons un lien surprenant entre les probabilités de persistance associées et une famille de polynômes bien connue en combinatoire : les polynômes de Mallows-Riordan. De cette connexion nous déduisons un dictionnaire entre identités combinatoires sur les polynômes de Mallows-Riordan et propriétés probabilistes du modèle de persistance.
  • Le 13 janvier 2022 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Jean François Marckert
    Un candidat pour la carte Brownienne en dimension supérieure : les feuilletages aléatoires
    La recherche d'un analogue de la carte Brownienne en dimension supérieure (pour des motivations physiques, notamment) passe souvent par la recherche d'un modèle analogue aux cartes combinatoires faisant intervenir des briquesde bases ayant elles mêmes une dimension >2: par exemple, modèle de "collages de polyhèdres", modèles de tenseurs, etc. Pour l'instant ces méthodes marchent mal, dans le sens où les limites d'échelle de ces modèles discrets n'ont pas les propriétés espérées. On introduit une façon de procéder totalement différente: le feuilletage. Il s'agit, de produire une suite d'objets ( A_k, k geq 0) (cette construction étant similaire en discret et en continu), où A_{k+1} est obtenu depuis A_k en identifiant des points aléatoires de A_k. La construction, dans le cadre continu, est paramétrée de sorte qu'A_0, A_1, A_2 sont 3 objets importants: le cercle déterministe, l'arbre continu d'Aldous, la carte Brownienne. On discutera de la construction et des A_i suivant. Il s'agit d'un exposé consistant à davantage présenter des principes que des détails, et il devrait être accessible au plus grand nombre. Travail commun avec Luca Lionni
  • Le 13 janvier 2022 à 15:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Bernard Bercu
    Promenade sur des permutations aléatoires
    L'objectif de cet exposé est de montrer comment la théorie des martingales permet de retrouver de manière simple ou de prouver de nouveaux résultats sur les permutations aléatoires. On fera une étude approfondie du nombre de descentes. On parlera également de pics et d'oscillations.
  • Le 20 janvier 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Joseph de Vilmarest
    Stochastic Online Optimization using Kalman Recursion
    We present an analysis of the Extended Kalman Filter (EKF) in a degenerate setting called static. It has been remarked that in this setting the EKF can be seen as a gradient algorithm. Therefore, we study the static EKF as an online optimization algorithm to enrich the link between bayesian statistics and optimization. We propose a two-phase analysis. First, for Generalized Linear Models, we obtain high probability bounds on the cumulative excess risk, under the assumption that after some time the algorithm is trapped in a small region around the optimum. Second, we prove that « local » assumption for linear and logistic regressions, slightly modifying the algorithm in the logistic setting. This is a joint work with Olivier Wintenberger.
  • Le 3 février 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Fabrice Grela
    Minimax detection and localisation of an abrupt change in a Poisson process
    Considering a Poisson process observed on a bounded, fixed interval, we are interested in the problem of detecting an abrupt change in its distribution, characterized by a jump in its intensity. Formulated as an off-line change-point problem, we address two questions : the one of detecting a change-point and the one of estimating the jump location of such change-point. This study aims at proposing a non-asymptotic minimax testing set-up, first to construct a minimax and adaptive detection procedure and then to give a minimax study of a multiple testing procedure designed for simultaneously detect and localise a change-point.
  • Le 10 février 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Claire Delplancke
    Un algorithme primal-dual stochastique et ses applications à la reconstruction d'images pour la tomographie à émission de positrons
    L'algorithme SPDHG (Stochastic Primal-Dual Hybrid Gradient) est une version stochastique de l'algorithme PDHG (Primal-Dual Hybrid Gradient) développé par Chambolle et Pock, utilisé dans le cadre de problèmes inverses où le terme d'attache aux données et le régulariseur sont convexes mais pas nécessairement lisses. Grâce à sa composante randomisée, SPDHG permet de ne réaliser que des évaluations partielles de l'opérateur direct et de son adjoint. Cela en fait un algorithme particulièrement adapté à la tomographie à émission de positrons (PET), où le principal frein à l'adoption pratique de méthodes itératives sophistiquées est le coût computationnel des projections. Je présenterai un résultat de convergence pour SPDHG ainsi que des applications, en particulier liées à la question du choix du pas, sur des jeux de données PET réels et simulés.
  • Le 10 mars 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Reda Chhaibi
    Free Probability, Newton lilypads and hyperbolicity of Jacobians as a solution to the problem of tuning the architecture of neural networks
    Gradient descent during the learning process of a neural network can be subject to many instabilities. The spectral density of the Jacobian is a key component for analyzing robustness. Following the works of Pennington et al., such Jacobians are modeled using free multiplicative convolutions from Free Probability Theory (FPT). We present a reliable and very fast method for computing the associated spectral densities. This method has a controlled and proven convergence. Our technique is based on an homotopy method: it is an adaptative Newton-Raphson scheme which chains basins of attraction. We find contiguous lilypad-like basins and step from one to the next, heading towards the objective. In order to demonstrate the applicability of our method we show that the relevant FPT metrics computed before training are highly correlated to final test losses – up to 85%. We also give evidence that a very desirable feature for neural networks is the hyperbolicity of their Jacobian at initialization.
  • Le 23 mars 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Pas de séminaire
    NA
    NA
  • Le 24 mars 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Antoine Mouzard
    Chemins rugueux, calcul paracontrôlé et ED(P)S
    Dans cet exposé, on présentera les théories des chemins rugueux de Lyons et des chemins contrôlés de Gubinelli, introduites pour la résolution des Équations Différentielles Stochastiques (EDS). On expliquera ensuite comment ces idées ont été étendues à la résolution des Équations aux Dérivées Partielles Stochastiques (EDPS) singulières à l'aide du calcul paracontrôlé. Enfin, on donnera quelques exemples de modèles aléatoires décrits par de telles équations.
  • Le 5 mai 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérémie Bigot null
    Modèles mathématiques sur linfluence de la taille de la couche cachée dans des réseaux de neurones à 2 couches - Approches par matrices aléatoires ou par flots de gradient et transport optimal.
    Comprendre linfluence de la taille des couches cachées dans la capacité de généralisation des modèles de réseaux de neurones est une question qui a suscité de très nombreux travaux. Dans cette série dexposés, nous proposons de présenter quelques modèles mathématiques pour répondre à cette problématique qui se basent soit sur la théorie des matrices aléatoires et des probabilités libres, soit sur la théorie des flots de gradient dans lespace de Wasserstein et les outils du transport optimal de mesures. Nous espérons ainsi débuter un groupe de travail autour de ces modèles dont de nombreux aspects peuvent intéresser la communauté de recherche en mathématiques appliquées à Bordeaux.
  • Le 12 mai 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Paul Freulon null
    Some statistical insights into entropy regularized Wasserstein estimators, through weights estimation in a mixture model
    In 2013, Marco Cuturi introduced an entropic regularized version of the Wasserstein distance. Due to its computational advantages, this regular- ized version of the Wasserstein distance is now a popular tool in statistics to compare probability distributions, or point clouds. In 2017, Arjovsky et al. proposed with Wasserstein-GANs, to minimize the Wasserstein dis- tance among a class of parameterized distributions, and an empirical prob- ability distribution; this is an example of Wasserstein estimation method. In this talk, I will discuss the use of the regularized Wasserstein distance to perform Wasserstein estimation. Motivated by a bio-statistical appli- cation, we propose to find among mixture distributions parameterized by their weights, the closest to an empirical probability distribution with re- spect to the regularized Wasserstein distance. Through this example of Wasserstein estimator, I will discuss the influence of the regularization parameter on the statistical properties of Wasserstein estimators. It is a joint work with Jérémie Bigot, Boris Hejblum and Arthur Leclaire.
  • Le 19 mai 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Jérémie Bigot null
    Modèles mathématiques pour les réseaux de neurones 2
    Suite du groupe de travail
  • Le 9 juin 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Ugo Tanielian (Criteo) null
    Generative Adversarial Networks: understanding optimality properties of Wasserstein GANs
    "Generative Adversarial Networks (GANs) were proposed in 2014 as a new method efficiently producing realistic images. Since their original formulation, GANs have been successfully applied to different domains of machine learning: video, sound generation, and image editing. However, our theoretical understanding of GANs remains limited.
    In this presentation, we will first define the overall framework of GANs and illustrate their main applications. Then, we will focus on a cousin approach called Wasserstein GANs (WGANs). This formulation based on the well-known Wasserstein distance has been validated by many empirical studies and brings stabilization in the training process. Finally, motivated by the important question of characterizing the geometrical properties of WGANs, we will show that for a fixed sample size, optimality for WGANs is closely linked with connected paths minimizing the sum of the squared Euclidean distances between the sample points. "
  • Le 6 octobre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Yiye Jiang null
    Wasserstein Multivariate Autoregressive Models for distributional time series
    "In this work, we propose a new autoregressive model for multivariate distributional time series. We consider a collection of N series of probability measures supported over a bounded interval in R, which are indexed by distinct time instants. Especially, we wish to develop such a model which can identify the dependency structure in the temporal evolution of the measures. To this end, we adopt the Wasserstein metric. We establish the regression model in the Tangent space of the Lebesgue measure by first ""centering"" all the raw measures so that their Fréchet means turn Lebesgue. The uniqueness and stationarity results are provided. We also propose a consistent estimator for the model coefficient. In addition to the simulated data, the proposed model is illustrated on two real data sets: age distribution of countries and the bike sharing network in Paris. "
  • Le 13 octobre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Guillaume Dubach null
    Une dynamique de chaises musicales sur des valeurs propres
    "Je présenterai un modèle de matrices aléatoires faiblement non-Hermitiennes dont les valeurs propres décrivent une dynamique de ""chaises musicales"": après être passées de la droite réelle au demi-plan supérieur, l'une d'entre elles s'échappe irrémédiablement, tandis que les autres s'alignent à nouveau sur la droite réelle. Nous verrons notamment après combien de temps il est possible de distinguer avec quasi-certitude la valeur propre ""perdante"". Travail en collaboration avec László Erdös."
  • Le 20 octobre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Thomas Simon null
    Temps de passage de certaines chaînes auto-régressives
    "On considère une suite auto-régressive d'ordre 1 avec des innovations continues et symétriques, et son premier temps de passage au-dessus de zéro. On montre deux factorisations remarquables des fonctions génératrices de ce temps de passage en fonction du signe du paramètre de dérive. La première factorisation étend un résultat classique de Sparre Andersen sur les marches aléatoires symétriques et continues. Dans le cas des innovations uniformes, on établit un lien étonnant entre la loi du temps de passage et les polynômes énumérateurs de Mallows-Riordan. Travail avec Gerold Alsmeyer, Alin Bostan et Kilian Raschel."
  • Le 27 octobre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Luis Frédès null
    Chaînes de Markov presque triangulaires sur 
    Une matrice de transition U sur  est dite presque triangulaire supérieure si U(i,j)e0Òjei-1, de sorte que les incréments des chaînes de Markov correspondantes sont au moins -1 ; une matrice de transition L sur  est dite presque triangulaire inférieure si L(i,j)e0Òjdi+1, et alors, les incréments des chaînes de Markov correspondantes sont au plus +1. Dans cet exposé, je caractériserai la récurrence, la récurrence positive et la distribution invariante pour la classe des matrices de transition presque triangulaires. Ces résultats englobent le cas des processus de naissance et de mort (BDP), qui sont des chaînes de Markov célèbres étant simultanément presque triangulaires supérieures et presque triangulaires inférieures. Leurs propriétés ont été étudiées dans les années 50 par Karlin & McGregor dont l'approche repose sur des connexions profondes entre la théorie des BDP, les propriétés spectrales de leurs matrices de transition, le problème des moments, et la théorie des polynômes orthogonaux. Notre approche est principalement combinatoire et utilise des méthodes algébriques élémentaires. Travail en commun avec J.F. Marckert.
  • Le 10 novembre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Camille Male (IMB) null
    Une Introduction aux Probabilités libres

  • Le 24 novembre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Guillaume Blanc null
    Propriétés fractales de la métrique aléatoire d'Aldous-Kendall
    "On considère la métrique aléatoire construite par Kendall sur $\mathbb{R}^d$ à partir d'un Processus de Poisson de routes auto-similaire, où une route est une droite avec une limitation de vitesse. Intuitivement, le processus fournit un réseau de routes dans $\mathbb{R}^d$, sur lequel on peut se déplacer en respectant les limitations de vitesse ; et cela induit une métrique aléatoire $T$ sur $\mathbb{R}^d$, pour laquelle la distance entre les points est donnée par le temps de trajet optimal.Dans cet exposé, je présenterai les propriétés fractales de l'espace métrique aléatoire $\left(\mathbb{R}^d,T\right)$. En particulier, bien que presque sûrement il soit homéomorphe à l'espace euclidien $\mathbb{R}^d$, sa dimension de Hausdorff est donnée par la constante $(\gamma-1)d/(\gamma-d)$, où $\gamma>d$ est un paramètre du modèle.Cette propriété fractale, que l'on retrouve dans d'autres modèles en géométrie aléatoire comme celui de la sphère brownienne, confirme une conjecture de Kahn.Si le temps le permet, je parlerai du caractère multifractal de l'espace métrique $\left(\mathbb{R}^d,T\right)$ muni de la mesure de Lebesgue, qui en particulier le distingue de la sphère brownienne munie de sa mesure volume."
  • Le 1er décembre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Camille Male null
    Introduction aux Probabilités Libres 2
    "Dans la séance précédente, j'ai défini les variables aléatoires non commutatives ainsi que trois notions d'indépendance non commutatives. Dans la prochaine séance, je vais introduire la notion de ""cumulants"" qui permet d'avoir des expressions très similaires pour caractériser ces libertés. J'énoncerai également les théorèmes centraux limites relatifs aux différentes notions d'indépendance."
  • Le 8 décembre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Céline Bonnet null
    "Impact d'une dynamique de ""rescue""(sauvetage) sur la répartition de mutations neutres dans une population cellulaire branchante."
    "On s'intéresse à un processus de branchement bitype. Le premiertype représente une population de cellule sensible à un traitement(processus souscritique initialement en grande population, d'ordreN>>1). Chaque cellule sensible a une probabilité, d'ordre 1/N, dedevenir résistante à chaque division.De plus à chaque division les cellules sensibles et résistantes héritentdes mutations neutres de leur mère et d'un nombre aléatoire de mutationsneutres supplémentaires.Dans cette dynamique dite de rescue (initialement on suppose qu'il n'y aque des cellules sensibles), on décrit l'espérance du site frequencyspectrum de la population de résistantes à un temps d'ordre log(N).(Ps : Le site frequency spectrum décrit le nombre de mutations portéespar i cellules à un certain temps. Mutations neutres désignent desmutations qui n'influencent pas la dynamique de la population.)"
  • Le 15 décembre 2022 à 09:45
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Ulugbek Kamilov (Washington University in St Louis) null
    Plug-and-Play Models for Large-Scale Computational Imaging
    Computational imaging is a rapidly growing area that seeks to enhance the capabilities of imaging instruments by viewing imaging as an inverse problem. Plug-and-Play Priors (PnP) is one of the most popular frameworks for solving computational imaging problems through integration of physical and learned models. PnP leverages high-fidelity physical sensor models and powerful machine learning methods to provide state-of-the-art imaging algorithms. PnP models alternate between minimizing a data-fidelity term to promote data consistency and imposing a learned image prior in the form of an artifact reducing deep neural network. This talk presents a principled discussion of PnP under inexact physical and learned models. Inexact models arise naturally in computational imaging when using approximate physical models for efficiency or when test images are from a different distribution than images used for training the image prior. We present several successful applications of our theoretical and algorithmic insights in bio-microscopy, computerized tomography, and magnetic resonance imaging.
  • Le 15 décembre 2022 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Magalie Bénéfice null
    Couplages de mouvements browniens en géométries sous-riemanniennes
    "La construction de couplages sur différents types de variétés est un outil permettant d'obtenir de nombreux résultats en analyse, probabilité et géométrie. Les couplages de mouvements browniens permettent par exemple des estimations de gradients pour le semi-groupe de la chaleur et des inégalités de type Poincarré et Sobolev. On peut notamment recenser deux types de couplages pouvant amener à de telles inégalités: - Les couplages (X_t,Y_t) de diffusions partant de x et y respectivement vérifiant des inégalités du type $E[d(X_t,Y_t)]<= C(t) d(x,y)$;- Les couplages dits ""avec succès"" qui se rencontrent en un temps presque surement fini. Dans cet exposé je me concentrerai sur les couplages avec succès. Après une présentation des couplages de bases sur $R^n$, je présenterai la structure sous-riemanienne du groupe d'Heisenberg, ainsi que de $SU(2,\mathbb{C})$ et $SL(2,\mathbb{R}$. Je présenterai ensuite une méthode de couplages avec succès proposée ces dernières années sur le groupe d'Heisenberg. Enfin, j'expliquerai comment ce modèle peut s'étendre (ou pas) à d'autres variétés sous-riemanniennes."
  • Le 12 janvier 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Hippolyte Labarriere null
    Automatic FISTA restart
    We propose a restart scheme for FISTA (Fast Iterative Shrinking-Threshold Algorithm). This method which is a generalization of Nesterov's accelerated gradient algorithm is widely used in the field of large convex optimization problems and it provides fast convergence results under a strong convexity assumption. These convergence rates can be extended for weaker hypotheses such as the Lojasiewicz property but it requires prior knowledge on the function of interest. In particular, most of the schemes providing a fast convergence for non-strongly convex functions satisfying a quadratic growth condition involve the growth parameter which is generally not known. Recent works show that restarting FISTA could ensure a fast convergence for this class of functions without requiring any knowledge on the growth parameter. We improve these restart schemes by providing a better asymptotical convergence rate and by requiring a lower computation cost. We present numerical results emphasizing the efficiency of this method.
  • Le 19 janvier 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Camille Male (IMB) null
    "Introduction aux Probabilités libres part III\n"

  • Le 26 janvier 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Vanessa Piccolo (ENS Lyon) null
    Asymptotic spectral density of nonlinear random matrix model via cumulant expansion
    In this talk we will study the asymptotic spectral density of a nonlinear random matrix model M=YY* with Y=f(WX), where W and X are random rectangular matrices with iid entries and f is a non-linear smooth function. We will derive a self-consistent equation for the Stieltjes transform of the limiting eigenvalue distribution using the resolvent approach via the cumulant expansion. This is based on a joint work with Dominik Schröder.
  • Le 9 février 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Sofia Tarricone null
    Sur les densités de Janossy du processus ponctuel déterminantal d'Airy ''aminci''
    Dans cet exposé, nous montrerons que les densités de Janossy d'un processus ponctuel déterminantal d'Airy convenablement aminci sont décrites par les équations de Schrodinger et de KdV (cylindrique), liées aussi à certaines analogues intégro-différentielles d'équations de type Painlevé. Tout d'abord, nous reverrons les résultats connus pour la ''gap probability'' du même processus d'Airy aminci, coincidant avec le déterminant de Fredholm du noyau d'Airy à temperature finie, puis nous les utiliserons pour enfin caractériser les densités de Janossy aussi. Le séminaire se base sur un travail (presque terminé) avec des collaborateurs de l'Université Catholique de Louvain-la-Neuve : T. Claeys, G. Glesner, G. Ruzza.
  • Le 2 mars 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Emmanuel Gobet (CMAP) null
    Estimation of extreme quantiles with neural networks, application to extreme rainfalls
    "We propose new parametrizations for neural networks in order to estimate extreme quantiles for both non-conditional and conditional heavy-tailed distributions. All proposed neural network estimators feature a bias correction based on an extension of the usual second-order condition to an arbitrary order. We establish convergence rates in terms of the neural network complexity. The finite sample performances of the non-conditional neural network estimator are compared to other bias-reduced extreme-value competitors on simulated data: our method outperforms them in difficult heavy-tailed situations where other estimators almost all fail. Finally, the conditional neural network estimators are implemented to investigate the behavior of extreme rainfalls as functions of their geographical location in the southern part of France."
  • Le 16 mars 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Guy Gilboa (Technion) null
    The Underlying Correlated Dynamics in Neural Training
    "Training of neural networks is a computationally intensive task. The significance of understanding and modeling the training dynamics is growing as increasingly larger networks are being trained. We propose a model based on the correlation of the parameters' dynamics, which dramatically reduces the dimensionality. We refer to our algorithm as Correlation Mode Decomposition (CMD). It splits the parameter space into groups of parameters (modes) which behave in a highly correlated manner through the epochs. We achieve a remarkable dimensionality reduction with this approach, where a network of 11M parameters like ResNet-18 can be modeled well using just a few modes. We observe each typical time profile of a mode is spread throughout the network in all layers. Moreover, retraining the network using our dimensionality reduced model induces a regularization which yields better generalization capacity on the test set.This is a joint work with Rotem Turjeman, Tom Berkov and Ido Cohen."
  • Le 23 mars 2023 à 09:30
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Journée thématique (organisée par Yann Traonmilin) null
    Problèmes inverses en imagerie - régularisation, modèles de faible dimension et applications
    "L'approche variationnelle de résolution des problèmes inverses en imagerie a connu beaucoup de développements lors des trente dernières années. Son cadre mathématique flexible a permis de montrer des résultats garantissant leurs succès sous des hypothèses sur les paramètres du modèle (parcimonie, nombre de mesures, nature du bruit, etc). De nombreuses questions restent ouvertes dans ce domaine, résolution de problèmes inverses dans des espaces de mesures (ex: super-résolution), régularisation adaptée à de nouveaux modèles de faibles dimension, garanties pour les méthodes de résolution basées sur l'apprentissage profond, etc. Nous proposons pendant cette journée d'aborder les dernières avancées aussi bien pratiques que théoriques dans ce domaine. $$\href{https://gdr-mia.math.cnrs.fr/events/journee_problemes_inverses2023/}{\text{Site de l'événement}}$$"
  • Le 30 mars 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Simon Vary null
    Extensions of principal component analysis: limited data, sparse corruptions, and efficient computation
    Principal component analysis (PCA) is a fundamental tool used for the analysis of datasets with widespread applications across machine learning, engineering, and imaging. The first part of the talk is dedicated to solving Robust PCA from subsampled measurements, which is the inverse problem posed over the set that is the additive combination of the low-rank and the sparse set. Here we develop guarantees using the restricted isometry property that show that rank-r plus sparsity-s matrices can be recovered by computationally tractable methods from p=O(r(m+n-r)+s)log(mn/s) linear measurements. The second part of the talk is focused on finding an efficient way to perform large-scale optimization constrained to the set of orthogonal matrices used in PCA and for training of neural networks. We propose the landing method, which does not enforce the orthogonality exactly in every iteration, instead, it controls the distance to the constraint using computationally inexpensive matrix-vector products and enforces the exact orthogonality only in the limit. We show the practical efficiency of the proposed methods on video separation, direct exoplanet detection, online PCA, and for robust training of neural networks.
  • Le 27 avril 2023 à 09:30
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Journées de probabilités et statistique en Nouvelle Aquitaine null
    27 Avril de 9h30 à 17h30 + tapas à 19h30 ----- 28 Avril de 9h00 à 12h30 + repas à 12h30
    "Trouvez toute l'info sur le lien: https://indico.math.cnrs.fr/event/8848/"
  • Le 4 mai 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Guillaume Lauga ENS Lyon
    Multilevel proximal methods for Image Restoration
    "Solving large scale optimization problems is a challenging task and exploiting their structure can alleviate its computational cost. This idea is at the core of multilevel optimization methods. They leverage the definition of coarse approximations of the objective function to minimize it. In this talk, we present a multilevel proximal algorithm IML FISTA that draws ideas from the multilevel optimization setting for smooth optimization to tackle non-smooth optimization. In the proposed method we combine the classical accelerations techniques of inertial algorithm such as FISTA with the multilevel acceleration. IML FISTA is able to handle state-of-the-art regularization techniques such as total variation and non-local total-variation, while providing a relatively simple construction of coarse approximations. The convergence guarantees of this approach are equivalent to those of FISTA. Finally we demonstrate the effectiveness of the approach on color images reconstruction problems and on hyperspectral images reconstruction problems."
  • Le 11 mai 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Florentin Coeurdoux Toulouse INP
    Plug-and-Play Split Gibbs Sampler: embedding deep generative priors in Bayesian inference
    Statistical inference problems arise in numerous machine learning and signal/image processing tasks. Bayesian inference provides a powerful framework for solving such problems, but posterior estimation can be computationally challenging. In this talk, we present a stochastic plug and play sampling algorithm that leverages variable splitting to efficiently sample from a posterior distribution. The algorithm draws inspiration from the alternating direction method of multipliers (ADMM), and subdivides the challenging task of posterior sampling into two simpler sampling problems. The first problem is dependent on the forward model, while the second corresponds to a denoising problem that can be readily accomplished through a deep generative model. Specifically, we demonstrate our method using diffusion-based generative models. By sampling the parameter to infer and the hyperparameters of the problem efficiently, the generated samples can be used to approximate Bayesian estimators of the parameters. Unlike optimization methods, the proposed approach provides confidence intervals at a relatively low computational cost. To evaluate the effectiveness of our proposed samplers, we conduct simulations on four commonly studied signal processing problems and compare their performance to recent state-of-the-art optimization and MCMC algorithms.
  • Le 25 mai 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Nicolas Nadisic
    Beyond separability in nonnegative matrix factorization
    "Nonnegative matrix factorization (NMF) is a commonly used low-rank model for identifying latent features in nonnegative data. It became a standard tool in applications such as blind source separation, recommender systems, topic modeling, or hyperspectral unmixing. Essentially, NMF consists in finding a few meaningful features such that the data points can be approximated as linear combinations of those features. NMF is generally a difficult problem to solve, since it is both NP-hard and ill-posed (meaning there is no unique solution). However, under the separability assumption, it becomes tractable and well-posed. The separability assumption states that for every feature there is at least one pure data point, that is a data point composed solely of that feature. This is known as the 'pure-pixel' assumption in hyperspectral unmixing.In this presentation I will first provide an overview of separable NMF, that is the family of NMF models and algorithms leveraging the separability assumption. I will then detail recent contributions, notably (i) an extension of this model with sparsity constraints that brings interesting identifiability results; and (ii) new algorithms using the fact that, when the separability assumption holds, then there are often more than one pure data point. I will illustrate the models and methods presented with applications in hyperspectral unmixing."
  • Le 22 juin 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Benjamin McKenna Harvard University
    Universality for the global spectrum of random inner-product kernel matrices
    In recent years, machine learning has motivated the study of what one might call "nonlinear random matrices." This broad term includes various random matrices whose construction involves the *entrywise* application of some deterministic nonlinear function, such as ReLU. We study one such model, an entrywise nonlinear function of a sample covariance matrix f(X*X), typically called a "random inner-product kernel matrix" in the literature. A priori, entrywise modifications of a matrix can affect the eigenvalues in complicated ways, but recent work of Lu and Yau established that the large-scale spectrum of such matrices actually behaves in a simple way, described by free probability, when the randomness in X is either uniform on the sphere or Gaussian. We show that this description is universal, holding for much more general randomness in X. Joint work with Sofiia Dubova, Yue M. Lu, and Horng-Tzer Yau.


  • Le 14 septembre 2023 à 10:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    Cristian Coletti UFABC
    On accessibility percolation and Branch random Walks
    In this talk we will discuss a percolation model known under the name
    of accessibility percolation and which has been inspired by biologist
    issues. we shall see that this model maybe studied using the
    branching random walk machinery.
  • Le 14 septembre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Olivier Lafitte
    Truth tables for combining binary weak classifiers: a new approach leading to some improved insights on the adaboost algorithm and on stability of results.
    En apprentissage supervisé, il est très fréquent de combiner des classifieurs faibles pour obtenir un classifieur fort, ce qui est une application d'un théorème démontré par Shapire. La mise en oeuvre informatique de ce résultat porte le nom d'adaboost.
    Utilisant une structure des données logique qui semble originale étant donné une liste de classifieurs faibles, nous présentons l'apprentissage supervisé à deux classes d'une manière permettant d'obtenir le point de minimum unique de la fonction de coût convexifiée s'appuyant sur le risque empirique.
    La stabilité du classifieur résultant peut alors être étudiée analytiquement, ainsi qu'une notion de qualité des données, en utilisant des résultats classiques d'analyse
    En outre, on peut trouver des contre-exemples pour un théorème énoncé par Bartlett et Shapire concernant la convergence de l'algorithme adaboost, tout en proposant une méthode numérique (très) ancienne pour le corriger afin d'obtenir cette convergence
    Travail réalisé en collaboration avec J.M. Brossier, GIPSA Lab, Grenoble-INP
  • Le 21 septembre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Quentin François Dauphine PSL
    Asymptotic analysis of the characteristic polynomial for the Elliptic Ginibre Ensemble.
    The purpose of this talk is to show the convergence of the characteristic polynomial of random matrices sampled from the Elliptic Ginibre Ensemble, a model that interpolates between Ginibre and Gaussian Unitary Ensembles. The proof consists in two main steps: a control on the second moment using asymptotics of Hermite polynomials and the study of the fluctuations of traces using combinatorial arguments. We will expose each part of the proof together with future perspectives for the continuation of this work.
  • Le 28 septembre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Julio Backhoff University of Vienna
    Bass Martingales: existence, duality, and their properties.
    Motivated by robust mathematical finance, and also taking inspiration from the field of Optimal Transport, we ask:
    What is the martingale, with prescribed initial and terminal marginal distributions, which is closest to Brownian motion?
    Under suitable assumptions the answer to this question, in any dimension, is provided by the so-called Bass martingales. To imagine what these are, one pictures an underlying Brownian motion which is stretched in space in an order-preserving and martingale-preserving way. In this talk we discuss the properties of Bass martingales, their existence, and the duality theory required to study them. Talk based on joint work with Beiglböck, Schachermayer and Tschiderer.
  • Le 5 octobre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Hui Shi Bordeaux
    Méthodes de sketching pour problèmes inverses en traitement des images

  • Le 12 octobre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Baptiste Louf IMB
    Cartes combinatoires en grand genre
    Les cartes combinatoires sont un modèle de géométrie discrète : ce sont des surfaces fabriquées en recollant des polygones, ou de manière équivalente, des graphes dessinés sur des surfaces. Dans cet exposé, je parlerai de l’étude des propriétés géométriques des grandes cartes aléatoires. Historiquement, en lien avec des modèles de « gravitation quantique en 2D », les efforts se sont concentré sur les cartes de la sphère, mais dans les dix dernières années cette étude a été étendue aux cartes dont le genre (le nombre d’anses) tend vers l’infini. Travaux en commun avec Thomas Budzinski, Guillaume Chapuy et Svante Janson.
  • Le 19 octobre 2023 à 09:00
  • Séminaire Images Optimisation et Probabilités
    ...
    Séminaire banalisé ...
    Journée de rentrée IMB
    ...
  • Le 26 octobre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Nicolas Zalduendo Université de Lorraine and INRIA Grand Est
    The multi-type bisexual Galton-Watson branching process.
    The bisexual Galton-Watson process [Daley, '68] is an extension of the classical Galton-Watson process, but taking into account the mating of females and males, which form couples that can accomplish reproduction. Properties such as extinction conditions and asymptotic behaviour have been studied in the past years, but multi-type versions have only been treated in some particular cases. In this work we deal with a general multi-dimensional version of Daley’s model, where we consider different types of females and males, which mate according to a "mating function". We consider that this function is superadditive, which in simple words implies that two groups of females and males will form a larger number of couples together rather than separate. One of the main difficulties in the study of this process is the absence of a linear operator that is the key to understand its behavior in the asexual case, but in our case it turns out to be only concave. To overcome this issue, we use a concave Perron-Frobenius theory [Krause, '94] which ensures the existence of eigen-elements for some concave operators. Using this tool, we find a necessary and sufficient condition for almost sure extinction as well as a law of large numbers. Finally, we study the convergence of the process in the long-time through the identification of a supermartingale.
  • Le 9 novembre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Sarah Timhadjelt Aix Marseille Université
    Spectral gap of convex combination of a random permutation and a bistochastic matrix
    We consider a random bistochastic matrix of size N of the form (1-r)M + rQ where 0 < r < 1, M is a uniformly distributed permutation and Q is a given bistochastic matrix. Under sparsity and regularity assumptions on the *-distribution of Q, we prove that the second largest eigenvalue (1-r)M + rQ is essentially bounded by an approximation of the spectral radius of a deterministic asymptotic equivalent given by free probability theory.
  • Le 16 novembre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Pierre-Jean Bénard IMB
    Estimation of off-the-grid sparse spikes with over-parametrized projected gradient descent: theory and application
    De nombreux problèmes de traitement du signal et des images ou
    d'apprentissage statistique peuvent être modélisés comme un problème
    inverse linéaire sous-déterminé faisant intervenir un modèle de faible
    dimension sur l'inconnue.
    Dans cet exposé, nous reviendrons sur certaines des techniques pour
    retrouver le signal parcimonieux d'origine à partir de son observation
    et de l'opérateur linéaire. Nous comprendrons leurs fonctionnements et
    leurs limites. Puis nous introduirons une nouvelle méthode cherchant à
    résoudre ces limitations. Nous accompagnerons cela d'un résultat
    théorique sur la convergence de cette méthode ainsi que des exemples
    afin de mieux comprendre son fonctionnement.
  • Le 23 novembre 2023 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Christian Léonard Université Paris Nanterre
    (Séminaire d'Analyse) Le pont Brownien est une géodésique
    On montre que le pont brownien est une géodésique dans un espace-temps courbe où l'espace est celui des densités de probabilités muni d'une géométrie d'Otto-Wasserstein (transport optimal quadratique) et la courbure créée par l'entropie n'apparait que dans la structure produit de l'espace-temps. On est guidé par une analogie avec le travail d'Elie Cartan qui incorpora en 1923 la théorie newtonienne de la gravitation dans le cadre de la théorie de la relativité générale. Les outils principaux sont les notions de transport quadratique et de transport entropique. Il s'agit d'une collaboration avec Marc Arnaudon.
  • Le 30 novembre 2023 à 10:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2
    1.-Marien Renaud. 2.-Antoine Guennec. 3.-Magalie Bénéfice. 4.- Issa Dabo. U-Bordeaux
    Journée de l'equipe IOP
    Exposés de 30 mins par 4 doctorants
  • Le 7 décembre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Raphaël Berthier EPFL
    Incremental learning in diagonal linear networks
    Diagonal linear networks (DLNs) are a toy simplification of artificial neural networks; they consist in a quadratic reparametrization of linear regression inducing a sparse implicit regularization. In this paper, we describe the trajectory of the gradient flow of DLNs in the limit of small initialization. We show that incremental learning is effectively performed in the limit: coordinates are successively activated, while the iterate is the minimizer of the loss constrained to have support on the active coordinates only. This shows that the sparse implicit regularization of DLNs decreases with time.
  • Le 14 décembre 2023 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Camille Castera University of Tübingen
    Second-order algorithms for large-scale optimization and deep learning
    Non-convex non-smooth optimization has gained a lot of interest due to the efficiency of neural networks in many practical applications and the need to "train" them. Training amounts to solving very large-scale optimization problems. In this context, standard algorithms almost exclusively rely on inexact (sub-)gradients through automatic differentiation and mini-batch sub-sampling. As a result, first-order methods (SGD, ADAM, etc.) remain the most used ones to train neural networks.
    Driven by a dynamical system approach, we build INNA, an inertial and Newtonian algorithm, exploiting second-order information on the function only by means of first-order automatic differentiation and mini-batch sub-sampling. By analyzing together the dynamical system and INNA, we prove the almost-sure convergence of the algorithm. We discuss practical considerations and empirical results on deep learning experiments.
    We finally depart from non-smooth optimization and provide insights into recent results that pave the way for designing faster second-order methods.
  • Le 11 janvier 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Valentin Debarnot University of Basel
    Algorithmes de deep-learning pour la reconstruction en microscopie électronique et à fluorescence.
    Dans cette présentation, je présenterai différents aspects qui limitent la résolution en microscopie électronique et à fluorescence. Après avoir défini ces problèmes dans un formalisme de problème inverse, j'introduirai différents outils qui nous ont permis d'atténuer certaines limitations, et je discuterais différentes pistes de recherche possibles pour prendre en compte les limitations restantes. J'utiliserais des outils de machine learning (e.g. réseau de neurones implicites, deep image prior, dérivation automatique) pour résoudre des problèmes inverses en microscopie.
  • Le 25 janvier 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Paul Catala University of Osnabrückv
    Trigonometric approximations of the sparse super-resolution problem in Wasserstein distances
    In this talk, I will discuss the recovery of an arbitrary measure on the $d$-dimensional torus, given trigonometric moments up to degree $n$. Considering the convolution of the measure with powers of the Fejér kernel, which can be computed efficiently from the truncated moment sequence, I will provide rates of convergence of the resulting polynomial density towards the measure in the $p$-Wasserstein distance, as the degree $n$ increases. In particular, I will show that the best possible rate for polynomial approximation is inversely proportional to the degree, and that it is achieved by adequately choosing the power to which the kernel is raised. Finally, I will discuss another class of polynomial approximations, similar although not based on convolution, that converge pointwise to the characteristic function of the support of the measure. This is joint work with Mathias Hockmann, Stefan Kunis and Markus Wageringel.
  • Le 1er février 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Jamal Najim Université Gustave Eiffel
    Equilibres de grands systèmes de Lotka-Volterra couplés par des matrices aléatoires non-hermitiennes
    Les systèmes de Lotka-Volterra sont des équations différentielles couplées par une matrice dite d’interactions. On s’intéressera au cas où la matrice d’interactions est une grande matrice aléatoire, modèle fréquemment utilisé en écologie théorique pour comprendre les réseaux trophiques. Dans les cas d’existence d’un équilibre stable, aléatoire par nature, on s’attachera à décrire certaines propriétés statistiques de cet équilibre, comme par exemple la proportion des composantes non nulles. On s’intéressera à des modèles matriciels non-hermitiens, de type Ginibre réel et plus généralement elliptique, et on montrera comment des algorithme de type AMP (Approximate Message Passing) permettent d’accéder aux propriétés statistiques de ces équilibres.

    Travail en collaboration avec Y. Gueddari et W. Hachem, voir aussi https://arxiv.org/abs/2302.07820
  • Le 8 février 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférences
    Bastien Laville INRIA
    Some developments on off-the-grid curve reconstruction: divergence regularisation and untangling by Riemannian metric
    Recent years have seen the development of super-resolution variational optimisation in measure spaces. These so-called off-the-grid approaches offer both theoretical and numerical results, with very convincing results in biomedical imaging. However, the gridless variational optimisation is generally formulated for reconstruction of point sources, which is not always suitable for biomedical imaging applications: more realistic biological structures such as curves should also be reconstructed. In the first part of this talk, we propose a new strategy for the reconstruction of curves in an image through an off-the-grid variational framework, thanks to the sharp characterisation of the extreme points of the unit ball of a new regulariser thus enabling new theoretical and numerical results for optical imaging. In a second part of the talk, we investigate a new strategy for off-the-grid curve untangling, with some practical results for Localisation Microscopy.
  • Le 15 février 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Sebastien Herbreteau EPFL
    Towards better conditioned and interpretable neural networks : a study of the normalization-equivariance property
    In many information processing systems, it may be desirable to ensure that any change in the input, whether by shifting or scaling, results in a corresponding change in the system response. While deep neural networks are gradually replacing all traditional automatic processing methods, they surprisingly do not guarantee such normalization-equivariance (scale & shift) property, which can be detrimental in many applications. Inspired by traditional methods in image denoising, we propose a methodology to adapt existing convolutional neural networks so that normalization-equivariance holds by design and without performance loss. Our main claim is that not only ordinary unconstrained convolutional layers, but also all activation functions, including the ReLU (rectified linear unit), which are applied element-wise to the pre-activated neurons, should be completely removed from neural networks and replaced by better conditioned alternatives. As a result, we show that better conditioning improves the interpretability but also the robustness of these networks to outliers, which is experimentally confirmed in the context of image denoising.
  • Le 7 mars 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Radu-Alexandru Dragomir Telecom Paris
    Quartic Optimization Problems
    Many tasks in signal processing and machine learning involve minimizing polynomials of degree four. These include phase retrieval, matrix factorization, sensor network localization and many more. In this talk, I will give an overview of the challenges of quartic minimization as well as some complexity results. In particular, we will focus on a particular class of convex quartic problems, and we analyze the notion of quartic condition number. We design an algorithm for reducing this condition number. To do so, we build a preconditioner using a generalized version of the Lewis weights (a.k.a leverage scores), and we show that it is optimal in some specific sense.

    Based on joint work with Yurii Nesterov.
  • Le 14 mars 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Jianyu Ma Université de Toulouse
    Displacement functional and absolute continuity of Wasserstein barycenters.
    Barycenters are defined to average probability measures on metric spaces.
    For Wasserstein spaces, (Wasserstein) barycenter is a direct generalization of the celebrated McCann interpolation, which corresponds to the barycenters of measures $\lambda \delta_{\mu_1} + (1 - \lambda) \delta_{\mu_2}$.
    In the talk, we consider Wasserstein barycenters on Riemannian manifolds,
    and discuss the displacement functional used by the author in arXiv:2310.13832 to prove their absolute continuity with lower Ricci curvature bound assumptions.
    It is different from the widely used displacement convexity property combined with gradient flow, but still manifests an intriguing connection with the curvature-dimension condition.
    If time allowed, we will also explain how the Souslin space theory is applied in the proof,
    which is an unexpected technique for optimal transport.
  • Le 21 mars 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces.
    Laura Girometti et Léo Portales Université de Bologne et de Toulouse
    Deux exposés
    Title Léo : Convergence of the iterates of Lloyd's algorithm
    Summary : The finding of a discrete measure that approaches a target density, called quantization, is an important aspect of machine learning and is usually done using Lloyd’s algorithm; a continuous counterpart to the K-means algorithm. We have studied two variants of this algorithm: one where we specify the former measure to be uniform (uniform quantization) and one where the weights associated to each point is adjusted to fit the target density (optimal quantization). In either case it is not yet known in the literature whether the iterates of these algorithms converge simply. We proved so with the assumption that the target density is analytic and restricted to a semi algebraic compact and convex set. We do so using tools from o-minimal geometry as well as the Kurdyka-Lojasiewicz inequality. We also proved along the way the definability in an o-minimal structure of functions of the form Y := (y1, ..., yN ) → D(\mu,1/N sum_{i=1}^N \delta_{y_i}) for the following divergences D: the general Wp Wasserstein distance, the max-sliced Wasserstein distance and the entropic regularized Wasserstein distance.

    Title Laura : Quaternary Image Decomposition
    Summary : Decomposing an image into meaningful components is a challenging inverse problem in image processing and has been widely applied to cartooning, texture removal, denoising, soft shadow/spotlight removal, detail enhancement etc. All the valuable contributions to this problem rely on a variational-based formulation where the intrinsic difficulty comes from the numerical intractability of the considered norms, from the tuning of the numerous model parameters, and, overall, from the complexity of extracting noise from a textured image, given the strong similarity between these two components. In this talk, I will present a two-stage variational model for the additive decomposition of images into piecewise constant, smooth, textured and white noise components, focusing on the regularization parameter selection and presenting numerical results of decomposition of textured images corrupted by several kinds of additive white noises.
  • Le 11 avril 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    salle de conférence
    François Chapon Université of Toulouse
    Spectres de matrices de Toeplitz à bande déformées
    Les matrices de Toeplitz sont des matrices non-normales, dont l'analyse spectrale en grande dimension est bien comprise. Le spectre de ces matrices est en particulier très sensible à de petites perturbations. On s'intéressera dans cet exposé aux matrices de Toeplitz à bande, dont le symbole est donné par un polynôme de Laurent, et perturbées par une matrice aléatoire. Le but est de décrire les valeurs propres hors du support de la mesure limite de la perturbation quand la dimension tend vers l'infini, appelées "outliers", et qui apparaissent en fonction de l'indice de la courbe du plan complexe déterminée par le symbole. Travail en cours et en collaboration avec Mireille Capitaine et Charles Bordenave.
  • Le 18 avril 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Pierre-Loïc Méliot Paris-Saclay
    Ellis-Gärtner au second ordre pour des statistiques de tableaux et partitions aléatoires.
    Si (X_n) est une suite de variables aléatoires réelles, le théorème d'Ellis-Gärtner assure que les logarithmes des probabilités de grandes déviations log P[X_n > n x] sont reliées à l'asymptotique de la log-laplace renormalisée h -> (log E[e^{h X_n}])/n. Dans cet exposé, on expliquera à quelles conditions on peut enlever les logarithmes et obtenir un équivalent des probabilités P[X_n > n x]. Plus précisément, si

    log E[e^{z X_n}] = n Lambda(z) + Psi(z) + o(1)

    localement uniformément sur le plan complexe, alors une condition simple sur la partie réelle de la fonction Lambda(z) permet d'écrire un équivalent des probabilités de grandes déviations (sans logarithme). Ces techniques s'adaptent en particulier à des modèles mettant en jeu des partitions aléatoires ou des tableaux de Young standards aléatoires ; nous détaillerons dans ce cas les résultats obtenus et quelques techniques de preuve générales.
  • Le 25 avril 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Maud Biquard ISAE-SUPAERO and CNES
    Variational Bayes image restoration with (compressive) autoencoders
    Regularization of inverse problems is of paramount importance in computational imaging. The ability of neural networks to learn efficient image representations has been recently exploited to design powerful data-driven regularizers. While state-of-the-art plug-and-play methods rely on an implicit regularization provided by neural denoisers, alternative Bayesian approaches consider Maximum A Posteriori (MAP) estimation in the latent space of a generative model, thus with an explicit regularization. However, state-of-the-art deep generative models require a huge amount of training data compared to denoisers. Besides, their complexity hampers the optimization involved in latent MAP derivation. In this work, we first propose to use compressive autoencoders instead. These networks, which can be seen as variational autoencoders with a flexible latent prior, are smaller and easier to train than state-of-the-art generative models. As a second contribution, we introduce the Variational Bayes Latent Estimation (VBLE) algorithm, which performs latent estimation within the framework of variational inference. Thanks to a simple yet efficient parameterization of the variational posterior, VBLE allows for fast and easy (approximate) posterior sampling. Experimental results on image datasets BSD and FFHQ demonstrate that VBLE reaches similar performance than state-of-the-art plug-and-play methods, while being able to quantify uncertainties faster than other existing posterior sampling techniques.
  • Le 2 mai 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Jérôme Bolte Université de Toulouse 1
    Nonsmooth differentiation of algorithms and solution maps
    The recent surge in algorithmic differentiation through the massive use of TensorFlow and PyTorch "autodiff" has democratized "computerized differentiation" for a broad spectrum of applications and solvers. Motivated by the challenges of nonsmoothness (such as thresholding, constraints, and ReLU) and the need to adjust parameters in various contexts directly via these solvers, we have devised tools for nonsmooth differentiation compatible with autodiff. We have in particular developed a nonsmooth implicit function calculus, aiming to provide robust guarantees for prevalent differentiation practices. We will discuss applications of these findings through the differentiation of algorithms and equations.
  • Le 16 mai 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Bruno Galerne Université d'Orleans
    Scaling Painting Style Transfer

    Neural style transfer (NST) is a deep learning technique that produces an unprecedentedly rich style transfer from a style image to a content image. It is particularly impressive when it comes to transferring style from a painting to an image. NST was originally achieved by solving an optimization problem to match the global statistics of the style image while preserving the local geometric features of the content image. The two main drawbacks of this original approach is that it is computationally expensive and that the resolution of the output images is limited by high GPU memory requirements. Many solutions have been proposed to both accelerate NST and produce images with larger size. However, our investigation shows that these accelerated methods all compromise the quality of the produced images in the context of painting style transfer. Indeed, transferring the style of a painting is a complex task involving features at different scales, from the color palette and compositional style to the fine brushstrokes and texture of the canvas. This paper provides a solution to solve the original global optimization for ultra-high resolution (UHR) images, enabling multiscale NST at unprecedented image sizes. This is achieved by spatially localizing the computation of each forward and backward passes through the VGG network. Extensive qualitative and quantitative comparisons, as well as a user study, show that our method produces style transfer of unmatched quality for such high-resolution painting styles. By a careful comparison, we show that state of the art fast methods are still prone to artifacts, thus suggesting that fast painting style transfer remains an open problem.


    Joint work with Lara Raad, José Lezama and Jean-Michel Morel.


  • Le 23 mai 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénce
    Stephane Dartois CEA
    Injective norm of random tensors and geometric entanglement of random quantum states

    In this talk, I will present the results of a collaboration with Benjamin McKenna on the injective norm of large random Gaussian tensors and uniform random quantum states and, time allowing, describe some of the context underlying this work. The injective norm is a natural generalization to tensors of the operator norm of a matrix and appears in multiple fields. In quantum information, the injective norm is one important measure of genuine multipartite entanglement of quantum states, known as geometric entanglement. In our recent preprint, we provide high-probability upper bounds in different regimes on the injective norm of real and complex Gaussian random tensors, which corresponds to lower bounds on the geometric entanglement of random quantum states, and to bounds on the ground-state energy of a particular multispecies spherical spin glass model. Our result represents a first step towards solving an important question in quantum information that has been part of folklore.


  • Le 6 juin 2024 à 11:00
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférénces
    Francisco Andrade ENS Paris
    Sparsistency for Inverse Optimal Transport

    Optimal Transport is a useful metric to compare probability distributions and to compute a pairing given a ground cost. Its entropic regularization variant (eOT) is crucial to have fast algorithms and reflect fuzzy/noisy matchings. This work focuses on Inverse Optimal Transport (iOT), the problem of inferring the ground cost from samples drawn from a coupling that solves an eOT problem. It is a relevant problem that can be used to infer unobserved/missing links, and to obtain meaningful information about the structure of the ground cost yielding the pairing. On one side, iOT benefits from convexity, but on the other side, being ill-posed, it requires regularization to handle the sampling noise. This work presents an in-depth theoretical study of the l1 regularization to model for instance Euclidean costs with sparse interactions between features. Specifically, we derive a sufficient condition for the robust recovery of the sparsity of the ground cost that can be seen as a far reaching generalization of the Lasso's celebrated Irrepresentability Condition. To provide additional insight into this condition, we work out in detail the Gaussian case. We show that as the entropic penalty varies, the iOT problem interpolates between a graphical Lasso and a classical Lasso, thereby stablishing a connection between iOT and graph estimation, an important problem in ML.


  • Le 10 juin 2024 à 13:30 au 14 juin 2024 à 12:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Journées de Probabilités 2024

    Page de l'événement : https://indico.math.cnrs.fr/event/11353/overview


  • Le 10 juillet 2024 à 14:00 au 11 juillet 2024 à 12:00
  • Séminaire Images Optimisation et Probabilités
    Salle 2 / salle de conférences
    4 exposés
    Mini-Workshop: rencontre de probabilistes

    Mercredi 10/07


    14h00 Jurgen Angst (Univ. Rennes)

    Title :  TLC in total variation for beta-ensembles

    Abstract : In this talk, we study the fluctuations of linear statistics associated with beta-ensembles, which are statistical physics models generalizing random matrix spectra. In the context of random matrices precisely (e.g. GOE, GUE), the "law of large numbers" is Wigner's theorem, which states that the empirical measure of eigenvalues converges to the semicircle law, and fluctuations around equilibrium can be shown to be Gaussian. We will describe how this result generalizes to beta-ensembles and how it is possible to quantify the speed of convergence to the normal distribution. We obtain optimal rates of convergence for the total variation distance and the Wasserstein distances. To do this, we introduce a variant of Stein's method for a generator $L$ that is not necessarily invertible, and which allows us to establish the asymptotic normality of observables that are not in the image of $L$. Time permitting, we will also look at the phenomenon of super-convergence, which ensures that convergence to the normal law takes place for very strong metrics, typically the $C^{\infty}$-convergence of densities. The talk is based on recent works with R. Herry, D. Malicet and G. Poly.


    15h00 Nicolas Juillet (Univ. Haute-Alsace)

    Title :  Exact interpolation of 1-marginals

    Abstract : I shall present a new type of martingales that exactly interpolates any given family of 1-dimensional marginals on R1 (satisfying the suitable necessary assumption). The construction makes use of ideas from the (martingale) optimal transportation theory and relies on different stochastic orders. I shall discuss of related constructions and open questions (joint work with Brückerhoff and Huesmann).


    16h00 Kolehe Coulibaly-Pasquier (Inst. Ellie Cartan)

    Title :  On the separation cut-off phenomenon for Brownian motions on high dimensional rotationally

    symmetric compact manifolds.

    Abstract : Given a family of compact, rotationally symmetric manifolds indexed by the dimension and a weighted function, we will study the cut-off phenomena for the Brownian motion on this family.

    Our proof is based on the construction of an intertwined process, a strong stationary time, an estimation of the moments of the covering time of the dual process, and on the phenomena of concentration of the measure.

    We will see a phase transition concerning the existence or not of cut-off phenomena, which depend on the shape of the weighted function.



    Jeudi 11/07


    11h00 Masha Gordina (Univ. of Connecticut)

    Title :   Dimension-independent functional inequalities on sub-Riemannian manifolds

    Abstract : The talk will review recent results on gradient estimates, log Sobolev inequalities, reverse Poincare and log Sobolev inequalities on a class of sub-Riemannian manifolds. As for many of such setting curvature bounds are not available, we use different techniques including tensorization and taking quotients. Joint work with F. Baudoin, L. Luo and R. Sarkar.



  • Le 11 juillet 2024 à 14:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Magalie Bénéfice IMB
    Soutenance de thèse : Coupling of stochastic processes in subRiemannian manifolds

    In this thesis we study couplings of subelliptic Brownian motions in several subRiemannian manifolds: the free, step $2$ Carnot groups, including the Heisenberg group, as well as the groups of matrices $SU(2)$ et $SL(2,\mathbb{R})$.

    Taking inspiration from previous works on the Heisenberg group we obtain successful non co-adapted couplings on $SU(2)$, $SL(2,\mathbb{R})$ (under strong hypothesis) and also on the free step $2$ Carnot groups with rank $n\geq 3$. In particular we obtain estimates of the coupling rate, leading to gradient inequalities for the heat semi-group and for harmonic functions. We also describe the explicit construction of a co-adapted successful coupling on $SU(2)$.

    Finally, we develop a new coupling model "in one sweep" for any free, step $2$ Carnot groups. In particular, this method allows us to obtain relations similar to the Bismut-Elworthy-Li formula for the gradient of the semi-group by studying a change of probability on the Gaussian space.


  • Le 12 septembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Marc Arnaudon IMB
    (Proba-Stat) Entrelacement, simulation parfaite et diffusions dans l'espace de Wasserstein

    La motivation principale de cet exposé est de trouver des temps forts de stationnarité pour des processus de Markov (X_t), c'est à dire des temps d'arrêt T tels que X_T soit à l'équilibre, T et X_T soient indépendants. Pour trouver des temps fort de stationnarité T, il est naturel et très facile dans certains cas d'utiliser des processus duaux (D_t), tels que T soit un temps d'atteinte d'un certain état pour le processus dual. On étudiera l'entrelacement entre (X_t) et (D_t). On donnera des exemples pour des chaînes de Markov à espace d'états finis, puis on s'intéressera au mouvement brownien avec des processus duaux à valeur ensemble. L'étonnant théorème "2M-X" de Pitman donne un exemple d'entrelacement du mouvement brownien dans le cercle. On généralisera ce théorème aux variétés riemanniennes compactes, et on construira des temps forts de stationnarité. On étudiera la transition de phase en grande dimension. Finalement, on s'intéressera à des duaux à valeur mesure."


  • Le 26 septembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    LaBRI Salle 076
    Yvan Le Borgne U-Bordeaux - LaBRI
    (proba-stats) Une approche de la causalité due à Pearl.

    Cet exposé se veut une introduction par l'exemple à une théorie de la causalité développée depuis la fin des années 90 par Judea Pearl. Elle lui a valu une partie de son prix ACM Turing en 2011, l'équivalent en informatique du prix Abel. Nous considérerons un modèle classique dont des hypothèses sont formulées par un graphe de cause. Il contient notamment une cause commune inobservable et une variable éthiquement non contrôlable. Adoptant ici un vocabulaire informatique, nous traiterons en détail une requête sur les traces d'exécution d'un programme inexécutable à l'aide de statistiques sur les traces d'un autre programme lui exécutable. Les éléments rencontrés lors de cette analyse seront alors utilisés dans une présentation de l'architecture globale de la démarche de Pearl. Si le temps le permet, nous discuterons quelques éléments sur les calculs probabilistes dans ce contexte qui s'avèrent souvent reformulable uniquement en terme de théorie des graphes.


  • Le 10 octobre 2024 à 09:00
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    ... ...
    Journée de rentrée de l'IMB

    Séminaire IOP banalisé


  • Le 17 octobre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle 1
    Jean Peyhardi U. Montpellier
    (Proba-Stats) Polya urn models for multivariate species abundance data: properties and applications

    Seminaire joint avec OptimAI.


    This talk focuses on models for multivariate count data, with emphasis on species abundance data. Two approaches emerge in this framework: the Poisson log-normal (PLN) and the Tree Dirichlet multinomial (TDM) models. The first uses a latent gaussian vector to model dependencies between species whereas the second models dependencies directly on observed abundances. The TDM model makes the assumption that the total abundance is fixed, and is then often used for microbiome data since the sequencing depth (in RNA seq) varies from one observation to another leading to a total abundance that is not really interpretable. We propose to generalize TDM model in two ways: by relaxing the fixed total abundance and by using Polya distribution instead of Dirichlet multinomial. This family of models corresponds to Polya urn models with a random number of draws and will be named Polya splitting distributions. In a first part I will present the probabilistic properties of such models, with focus on marginals and probabilistic graphical model. Then it will be shown that these models emerge as stationary distributions of multivariate birth death process under simple parametric assumption on birth-death rates. These assumptions are related to the neutral theory of biodiversity that assumes no biological interaction between species. Finally, the statistical aspects of Polya splitting models will be presented: the regression framework, the inference, the consideration of a partition tree structure and two applications on real data.


  • Le 7 novembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Julien Mairal INRIA Grenoble
    (Maths-IA) Physical Models and Machine Learning for Scientific Imaging

    Deep learning has revolutionised image processing and is often considered to outperform classical approaches based on accurate modelling of the image formation process. In this presentation, we will discuss the interplay between model-based and learning-based paradigms, and show that hybrid approaches show great promises for scientific imaging, where interpretation and robustness to real-world degradation is important. We will present two applications on super-resolution and high-dynamic range imaging, and exoplanet detection from direct imaging at high contrast.


    N'oubliez pas de vous inscrire à la liste maths-ia !

    https://listes.math.u-bordeaux.fr/wws/subscribe/mathsia?previous_action=info


  • Le 14 novembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Gersende Fort Institut de Mathématiques de Toulouse\, CNRS
    (Proba-Stat) Stochastic Approximation : Finite-time analyses and Variance Reduction

    In statistical learning, many analyses and methods rely on optimization, including its stochastic versions introduced for example, to overcome an intractability of the objective function or to reduce the computational cost of the deterministic optimization step.

    In 1951, H. Robbins and S. Monro introduced a novel iterative algorithm, named "Stochastic Approximation", for the computation of the zeros of a function defined by an expectation with no closed-form expression. This algorithm produces a sequence of iterates, by replacing at each iteration the unknown expectation with a Monte Carlo approximation based on one sample. Then, this method was generalized: it is a stochastic algorithm designed to find the zeros of a vector field when only stochastic oracles of this vector field are available.

    Stochastic Gradient Descent algorithms are the most popular examples of Stochastic Approximation : oracles come from a Monte Carlo approximation of a large sum. Possibly less popular are examples named "beyond the gradient case" for at least two reasons. First, they rely on oracles that are biased approximation of the vector field, as it occurs when biased Monte Carlo sampling is used for the definition of the oracles. Second, the vector field is not necessarily a gradient vector field. Many examples in Statistics and more

    generally in statistical learning are "beyond the gradient case": among examples, let us cite compressed stochastic gradient descent, stochastic Majorize-Minimization methods such as the Expectation-Maximization algorithm, or the Temporal Difference algorithm in reinforcement learning.

    In this talk, we will show that these "beyond the gradient case" Stochastic Approximation algorithms still converge, even when the oracles are biased, as soon as some parameters of the algorithm are tuned enough. We will discuss what 'tuned enough' means when the quality criterion relies on epsilon-approximate stationarity. We will also comment the efficiency of the

    algorithm through sample complexity. Such analyses are based on non-asymptotic convergence bounds in expectation: we will present a unified method to obtain such bounds for a large class of Stochastic Approximation methods including both the gradient case and the beyond the gradient case. Finally, a Variance Reduction technique will be described and its efficiency illustrated.


  • Le 21 novembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférences
    Thierry Emeric Gbaguidi IMB U-Bordeaux.
    On the SAGA algorithm with decreasing step

    Stochastic optimization naturally appear in many application areas, including machine learning. Our goal is to go further in the analysis of the Stochastic Average Gradient Accelerated (SAGA) algorithm. To achieve this, we introduce a new $\lambda$-SAGA algorithm which interpolates between the Stochastic Gradient Descent ($\lambda=0$) and the SAGA algorithm ($\lambda=1$). Firstly, we investigate the almost sure convergence of this new algorithm with decreasing step which allows us to avoid the restrictive strong convexity and Lipschitz gradient hypotheses associated to the objective function. Secondly, we establish a central limit theorem for the $\lambda$-SAGA algorithm. Finally, we provide the non-asymptotic $L^p$ rates of convergence.


  • Le 28 novembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Michel Bonnefont IMB
    (proba-stats) Couplages stochastiques et distance en variation totale sur le groupe de Heisenberg et les groupes de Carnot

    Dans cet exposé, je vais m'intéresser au mouvement Brownien dans des cadres simples de géométrie sous riemannienne: le groupe de Heisenberg et les groupes de Carnot de rang 2. Nous proposons une construction d'un couplage de deux mouvement Browniens à un temps fixe. Cette construction est basée sur une décomposition de Legendre du mouvement Brownien standard et de son aire de Lévy. Nous déduisons alors des estimées précises de la décroissance en variation totale entre les lois des mouvements Browniens 

    et par une technique de changement de probabilité une formule d'intégration par partie de type Bismut ainsi des estimées de régularisation de type Poincaré inverse pour le semi-groupe associé. Travail en commun avec Marc Arnaudon, Magalie Bénéfice et Delphine Féral


  • Le 5 décembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Julien Hermant IMB
    (Maths-IA) Gradient Correlation allows for faster optimization

    Many problems, especially in machine learning, can be formulated as optimization problems. Using optimization algorithms, such as stochastic gradient descent or ADAM, has become a cornerstone to solve these optimization problems. However for many practical cases, theoretical proofs of their efficiency are lacking. In particular, it has been empirically observed that adding a momentum mechanism to the stochastic gradient descent often allows solving these optimization problems more efficiently. In this talk, we introduce a condition linked to a measure of the gradient correlation that allows to theoretically characterize the possibility to observe this acceleration.


  • Le 12 décembre 2024 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférénces
    Jordan Serres INSA
    (proba-stats) À préciser

    À préciser


  • Le 9 janvier 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de Conférence
    Franck Iutzeler Institut de Mathématiques de Toulouse
    (Maths-IA) What is the long-run behavior of stochastic gradient descent? A large deviations analysis

    Abstact: We examine the long-run distribution of stochastic gradient descent (SGD) in general, non-convex problems. Specifically, we seek to understand which regions of the problem's state space are more likely to be visited by SGD, and by how much. Using an approach based on the theory of large deviations and randomly perturbed dynamical systems, we show that the long-run distribution of SGD resembles the Boltzmann-Gibbs distribution of equilibrium thermodynamics with temperature equal to the method's step-size and energy levels determined by the problem's objective and the statistics of the noise. Joint work w/ W. Azizian, J. Malick, P. Mertikopoulos

    https://arxiv.org/abs/2406.09241 published at ICML 2024


  • Le 23 janvier 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Aram-Alexandre Pooladian NYU
    (proba-stats) À préciser

    À préciser


  • Le 30 janvier 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    David Picard ENPC
    À préciser

    À préciser


  • Le 6 février 2025 à 10:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Cécilia Lancien Institut Fourier & CNRS
    (Prob-Stat) A définir

    A préciser


  • Le 6 février 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Rémi Gribonval INRIA
    (Maths-IA) A définir

    A définir


  • Le 13 février 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférénces
    Julien Gibaud IMB
    (proba-stats) Supervised component-based generalized linear regression for the joint modeling of responses

    In this presentation, a response matrix (here, species abundances) is assumed to depend on explanatory variables (here, environmental variables) supposed many and redundant, thus demanding dimension reduction. The Supervised Component-based Generalized Linear Regression (SCGLR), a Partial Least Squares-type method, is designed to extract from the explanatory variables several components jointly supervised by the set of responses. However, this methodology still has some limitations we aim to overcome in this work. The first limitation comes from the assumption that all the responses are predicted by the same explanatory space. As a second limitation, the previous works involving SCGLR assume the responses independent conditional on the explanatory variables. Again, this is not very likely in practice, especially in situations like those in ecology, where a non-negligible part of the explanatory variables could not be measured. To overcome the first limitation, we assume that the responses are partitioned into several unknown groups. We suppose that the responses in each group are predictable from an appropriate number of specific orthogonal supervised components of the explanatory variables. The second work relaxes the conditional independence assumption. A set of few latent factors models the residual covariance matrix of the responses conditional on the components. The approaches presented in this work are tested on simulation schemes, and then applied on ecology datasets.


    Séminaire joint avec OptimAI.


  • Le 13 mars 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Sibylle Marcotte ENS
    (Maths- IA) A définir

    A définir


  • Le 3 avril 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Adrien Taylor INRIA
    (Maths-IA) A définir

    A définir


  • Le 5 juin 2025 à 11:15
  • Séminaire Images Optimisation et Probabilités
    Salle de conférence
    Nicolas Keriven CNRS
    (Maths-IA) A définir

     A définir


    Les anciens séminaires