Mathematics applied to signal enhancement, wavelets, fractals, fractal analysis, Hölderian regularity, Hölder exponents, estimation, regression, denoising, optimal rate of convergence, minimax, risk, interpolation, extrapolation, road/tyre friction, indenters, multi-scale, evolutionary algorithms, genetic programming, bloat control, stereovision, classification, matching, biomedical applications, EEG analysis, cochlear implants, virtual analogue modeling, amplifier, neural networks.
Mes recherches se déclinent autour de 2 grand axes : la mesure de la régularité des signaux et les algorithmes évolutionnaires. Dans ces deux axes, je m'attache aux développements théoriques et à l'implementation. Enfin, je m'intéresse à la combinaison de ces outils pour créer d'autres outils et pour la résolution de problématiques réelles (biomédicales, musicales, human monitoring ou autres).
Régularité Hölderienne :
De nombreuses applications montrent que la caractérisation de la régularité locale des signaux obtenue via des techniques à base d'ondelettes ou d'outils
d'analyse fractale est pertinente pour leur description et leur traitement [Legrand2009].
Bien que l'analyse de la régularité d'un signal et son estimation constituent une problématique assez récente dans le domaine du traitement du signal,
il s'agit d'une des caractéristique fondamentale d'un signal même s'il existe une infinité de signaux présentant
la même régularité en chaque point. Une branche de l'analyse fractale, l'analyse de la régularité Hölderienne,
offre des outils mathématiques permettant de caractériser la régularité d'un signal [Legrand2009].
En particulier, l'exposant de Hölder ponctuel est particulièrement adapté à la mesure de la régularité des signaux.
Estimation de l'exposant de Hölder :
Plusieurs méthodes sont envisageables pour estimer l'exposant de Hölder. La plus naturelle, car elle suit la définition de l'exposant, consiste à étudier les oscillations autour du point considéré (Tricot1995).
Une seconde méthode d’estimation de la régularité Holderienne découle d’un théorème de Stéphane Jaffard et se base sur une décomposition en ondelettes [Jaffard2004].Contributions :
Coefficient de Hurst et DFA :
Dans le cadre de la thèse CIFRE Thales de Bastien Berthelot, je me suis intéressé à la méthode de Detrended Fluctuation Analysis (DFA) et ses variantes pour l'estimation du coefficient de Hurst. Ce coefficient, classiquement noté H [1], permet d'évaluer la dépendance à long terme (long range dependance, LRD). Ce concept peut se rattacher à la mémoire d'un processus.
Le lecteur peut se référer à [2] pour une étude approfondie de la LRD. Estimer H peut s'avérer pertinent pour la classification de signaux de différents types, notamment physiologiques. Ce marqueur a en effet été utilisé pour caractériser des signaux électroencéphalogrammes (EEG) [3] et électrocardiogrammes [4], des mouvements oculaires [5] ou encore des signaux de parole [6]. Ce coefficient, dans le cadre de la thèse de Bastien Berthelot a été utilisé comme signature à extraire de biosignaux pour des application de type crew monitoring. Plusieurs contributions théoriques ont été proposées au cours de cette thèse, accompagnées par le dépôt de deux brevets (un français et un français puis étendu sur l'europe, la chine et les états-unis) et un troisième en cours de dépôt. De plus des contributions sur des plans applicatifs ont été réalisées.
Au vu du grand intérêt qu'il suscite chez les praticiens, et de sa pertinence établie pour la caractérisation d'états physiologiques délétères, le coefficient de Hurst H, et en particulier son estimation font l'objet de nombreux travaux. Parmi les différents estimateurs du coefficient de Hurst proposés ces dernières années, le DFA apparaît comme une méthode simple à mettre en œuvre, offrant de bonnes performances en termes de précision d'estimation, tout en étant peu coûteuse en temps d'exécution. Il repose sur l'étude de la variance des fluctuations, également appelée fonction de fluctuation ou résidu, autour de la tendance du signal centré et intégré. La tendance est modélisée comme une concaténation de segments de droite. Il existe différentes variantes de cette méthode, telles que le DFA d'ordre supérieur [Kiyono2015], l'AFA, pour adaptive fractal analysis [Riley2012] ou le DMA, pour detrending moving average [DMA_Alessio]. Elles différent par leur manière d'estimer la tendance (voir figure 1 pour certaines méthodes de la littérature et certaines de nos contributions), et peuvent se décomposer en deux catégories : d'une part, les estimateurs fondés sur une modélisation a priori de la tendance, comme le DFA et l'AFA, et d'autre part ceux où la tendance résulte d'un filtrage linéaire invariant du signal intégré, comme le DMA.
Algorithmes génétiques et stratégies d'évolution :
Les algorithmes génétiques et les stratégies d'évolution sont des algorithmes d'optimisation basés sur la théorie darwinienne de l'évolution (De Jong (1975) [1] et Holland (1975) [2]). L'idée générale est qu'une population de solutions potentielles va améliorer ses caractéristiques au fil du temps par le biais de mutations génétiques et de croisements afin de s'adapter au mieux à son environnement. Le but de ces algorithmes est d'optimiser une fonction d'évaluation (fitness) sur un espace de recherche. Des individus (appelés "parents" et correspondant à des points de l'espace de recherche) vont être créés afin de former une population initiale diversifiée. Ils sont représentés par des génomes (codes binaires ou réels, de taille fixe ou variable). À l'aide d'opérateurs de mutation et de croisement, les parents vont donner naissance à des enfants qui vont être évalués à leur tour. Les meilleurs individus (enfants et/ou parents inclus) vont survivre. L'algorithme peut, par exemple, être itéré jusqu'à ce que tous les individus soient identiques (convergence de l'algorithme).
[1] De Jong, K. A. (1975). An analysis of the behavior of a class of genetic adaptive systems. PhD thesis, University of Michigan.
[2] Holland, J. H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.
Programmation génétique (GP) :
La programmation génétique est assez similaire aux algorithmes génétiques. Toutefois, l'espace de recherche est alors un espace fonctionnel. En effet, dans le cadre de la programmation génétique, on ne cherche plus à trouver un jeu de paramètres optimisant un critère mais à construire une fonction.
Dans la forme classique du GP, chaque solution est représentée sous forme d'arbre qui peut représenter une fonction. Les arbres sont construits en utilisant des éléments de deux ensembles, un ensemble de fonctions et un ensemble de terminaux. Ces deux ensembles définissent l'espace de recherche du GP. Des algorithmes courant, le GP est l'une des formes les plus avancées de recherche évolutionnaire.
Contributions :
En combinant les outils présentés ci-dessus avec du traitement du signal et du machine learning plus "conventionnel", il a été possible de produire, entre autres, les travaux suivants :