star

Marie-Liesse Cauwet

Welcome to my homepageBienvenue sur ma page web

NewsActualités

We are hiring a PhD student in applied mathematics at the CEA-LETI, Grenoble, see here.Nous proposons un sujet de thèse en mathématiques appliquées au CEA-LETI, voir ici.

I am a postdoctoral researcher at Mines St-Etienne in France, member of the research laboratory LIMOS. I currently work within the chair of applied mathematics OQUAIDO on black-box optimization with mixed variables. I completed my Ph.D. thesis on uncertainties in optimization at INRIA. My academic background and computer skills can be found in this CV.Je suis maître assitant associé à l'École des Mines de Saint-Étienne et membre du LIMOS. Mon travail s'inscrit dans les thématiques de recherche de la chaire OQUAIDO et se concentre plus particulièrement sur des problématiques d'optimisation de type boîte-noire dans le cas de variables mixtes. Mon doctorat, effectué à l'INRIA, traite de l'incertitude en optimisation de type boîte-noire. Ma formation universitaire et mes compétences sont présentés dans ce CV.

Contact
@ marie-liesse/dot/cauwet/at/emse/dot/fr
+33 4 77 42 02 85
École des mines de Saint-Étienne
158, cours Fauriel
CS 62362
42023 Saint-Étienne

On the web:Sur le web:

My research focus on optimization along three major lines:

  • Noisy and/or mixed black-box optimization in large dimension. 'Black-box' means that the only information available in order to optimize a function is its evaluation at a given search point. In particular, we do not have any gradient, Hessian or analytical expression of the objective function. When the optimization is 'noisy', the evaluation at a given point is inaccurate. It is the case when, e.g., the sensors collecting the data have a limited precision or are poorly calibrated. Last, an optimization problem can involve quantitative and qualitative variables, this is called 'mixed' optimization. An engineering optimization problem comprises quantitative variables such as the surface or the length of some particular piece and qualitative variables such as the type of material.
  • Dynamical systems. Power systems can be represented by Markov decision processes. Optimization of such models is limited by strong assumptions such as the convexity of the cost function or the simplicity of the random process. Such assumptions do not hold in the context of power systems with high share of renewable energy. Hence new methods need to be developed and validated theoretically and experimentally.
  • Sampling and design of experiment. At the initialization stage, different sampling techniques might be relevant (random, latin hypercube sampling, low discrepancy sequences, ...) depending on the desired properties. On the other hand, when with do not have a generative model, but a finite, small, number of data, some statistical methods such as bootstrap must be established in order to avoid overfitting.
  • Mes recherches s'organisent autour de l'optimisation selon trois axes:

  • Optimisation bruitée et/ou mixte de type boîte-noire en grande dimension. 'Boîte-noire' signifie que la seule information à disposition afin d'optimiser une fonction est sa valeur à un point donné. En particulier, le gradient, la Hessienne et l'expression analytique de la fonction ne sont pas disponibles. L'optimisation est dite 'bruitée' lorsque l'évaluation à un point donné est imprécise. Concrètement, cela traduit la précision limitée des capteurs qui collectent les données ou bien encore leur mauvaise calibration. Enfin, un problème d'optimisation peut faire intervenir des variables quantitatives et qualitatives, c'est l'optimisation dite 'mixte'. Pour un problème concret provenant de la physique ou de la mécanique, les variables quantitatives peuvent être des surfaces, des longueurs tandis que les variables qualitatives seront les types de matériaux utilisés.
  • Systèmes dynamiques. Les systèmes électriques peuvent être modélisés par des processus de décision markoviens. L'optimisation de tels modèles repose sur de fortes hypothèses telles que la convexité de la fonction de coût ou bien une modélisation excessivement simple du processus aléatoire sous-jacent. De telles hypothèses sont invalidées lorsque la part d'énergie renouvelable dans la production d'énergie totale est élevée. Ainsi, de nouvelles méthodes d'optimisation doivent être développées et validées de manière théorique et expérimentale.
  • Echantillonnage et plan d'expérience. Lors de l'initialisation d'un processus d'optimisation, différentes méthodes d'échantillonnage peuvent être mises en place, selon les propriétés désirées (aléatoire, hypercube latin, suites à faible discrépance, ...). A l'inverse, lorsque nous ne disposons pas d'un modèle génératif, mais seulement d'un échantillon de petite taille, des méthodes statistiques comme le bootstrap doivent être mises en œuvre afin d'éviter le surapprentissage.
  • Ph.D. ThesisThèse de doctorat

    Uncertainties in Optimization. University Paris-Sud. [pdf]Traitement de l'Incertitude en Optimisation, Université Paris-Sud. [pdf]

    ConferenceCongrès

    1. Surprising strategies obtained by stochastic optimization in partially observable games. Marie-Liesse Cauwet, Olivier Teytaud (accepted) . IEEE Congress on Evolutionary Computation (CEC), 2018.
    2. Direct Model Predictive Control: A Theoretical and Numerical Analysis.Marie-Liesse Cauwet, Jérémie Decock, Jialin Liu and Olivier Teytaud (accepted). 20th Power System Computation Conference, 2018. [pdf]
    3. Noisy Optimization: Fast Convergence Rates with Comparison-Based Algorithms. Marie-Liesse Cauwet, Olivier Teytaud. Genetic and Evolutionary Computation Conference (GECCO), 2016. [pdf]
    4. Analysis of Different Types of Regret in Continuous Noisy Optimization. Sandra Astete-Morales, Marie-Liesse Cauwet, Olivier Teytaud. Genetic and Evolutionary Computation Conference (GECCO), 2016. [pdf]
    5. Multivariate bias reduction in capacity expansion planning. Marie-Liesse Cauwet, Olivier Teytaud. 19th Power System Computation Conference, 2016. [pdf]
    6. Depth, balancing, and limits of the Elo model. Marie-Liesse Cauwet, Olivier Teytaud, Tristan Cazenave, Abdallah Saffidine, Hua-Min Liang, Shi-Jim Yen, Hung-Hsuan Lin, I-Chen Wu. 2015 IEEE Conference on Computational Intelligence and Games. [pdf]
    7. Criteria and Convergence Rates in Noisy Optimization. Sandra Astete-Morales, Marie-Liesse Cauwet, Olivier Teytaud. (Short paper) Genetic and Evolutionary Computation Conference (GECCO), 2015. [pdf]
    8. Parallel Evolutionary Algorithms Performing Pairwise Comparisons. Marie-Liesse Cauwet, Olivier Teytaud, Shih-Yuan Chiu, Kuo-Min Lin, Shi-Jim Yen et al. Foundations of Genetic Algorithms, 2015. [pdf]
    9. Evolution Strategies with Additive Noise: A Convergence Rate Lower Bound. Sandra Astete-Morales, Marie-Liesse Cauwet, Olivier Teytaud. Foundations of Genetic Algorithms, 2015. [pdf]
    10. Noisy optimization : Convergence with a Fixed Number of Resamplings. Marie- Liesse Cauwet. Evostar, 2014. [pdf]
    11. Algorithm Portfolios for Noisy Optimization: Compare Solvers Early. Marie-Liesse Cauwet, Jialin Liu and Olivier Teytaud. The 8th Learning and Intelligent OptimizatioN Conference (LION8), 2014. [pdf]

    JournalRevues

    1. Algorithm Portfolios for Noisy Optimization. Marie-Liesse Cauwet, Jialin Liu, Baptiste Rozière, Olivier Teytaud. Annals of Mathematics and Artificial Intelligence. [pdf]
    2. Simple and Cumulative Regret for Continuous Noisy Optimization. Sandra Astete-Morales, Marie-Liesse Cauwet, Jialin Liu, Olivier Teytaud. Theoretical Computer Science. [pdf]

    General audience (in French)Communications grand public

    1. Jeu de go : l’ordinateur plus fort que l’humain ? Marie-Liesse Cauwet, Olivier Teytaud. Libération 03/03/2016 [webpage]. CNRS, le journal, 03/03/2016. [webpage]
    2. La transition énergétique via les smarts grids. Marie-Liesse Cauwet, Olivier Teytaud. VRS n° 403, 12/2015, pages 32-35. [webpage]
  • Encadrement de travaux de TFE, 3ème année ICM, Mines St-Etienne, 2018.
  • Probabilités et Statistiques, 1ère année ICM, Mines St-Etienne, 2018.
  • Méthodes mathématiques pour la grande dimension, 2ème et 3ème année ICM, Mines St-Etienne, 2018.
  • Organisation de l'examen de classification, 2ème année ICM, Mines St-Etienne, 2018.
  • Introduction aux réseaux de neurones, 2ème et 3ème yannée ICM, Mines St-Etienne, 2018.
  • Statistiques (remplacement, Bachelier en sciences informatiques, Université de Liège, 2017.
  • Algèbre: application à l'analyse en composantes principales (projet en Python), 2ème année d'informatique, IUT d'Orsay, 2015-2016.
  • Probabilités et Statistiques, 2ème année d'informatique, IUT d'Orsay, 2015-2016.
  • Analyse, 1ère année d'informatique, IUT d’Orsay, 2013-2015.
  • Graphes & Automates, 1ère année d'informatique, IUT d’Orsay, 2013-2014.
  • Analyse & Algèbre, soutien académique, 1ère année de Mathématique, Physique & Informatique, Université Paris-Sud, 2012-2013.