L'optimisation est un paradigme utile pour modéliser les problèmes de science des données et les résoudre à l'aide d'algorithmes avancés. D'autre part, la science des données a apporté de nouveaux paradigmes à divers domaines de la science informatique, tels que l'algèbre linéaire et les équations différentielles partielles. Ce cours passera en revue les résultats récents sur l'exploitation des techniques d'apprentissage en tant qu'outil pour résoudre des problèmes d'optimisation difficiles. La première partie du cours abordera la manière dont l'apprentissage automatique peut être utilisé dans le contexte des techniques d'optimisation combinatoire. Nous nous concentrerons ensuite sur les relaxations continues des problèmes combinatoires, et nous expliquerons comment les outils d'apprentissage peuvent être intégrés aux solveurs dans cet espace. Enfin, nous présenterons les techniques de régression et les approches de bandit qui sont utilisées dans l'optimisation sans dérivée.

 

Références:

  • Y. Bengio, A. Lodi, A. Prouvost. Machine learning for combinatorial optimization: a methodological tour d'horizon, European Journal on Operations Research (2021)
  • S. Jegelka. Theory of Graph Neural Networks: Representation and Learning (2022)
  • J. Larson, M. Menickelly, S. M. Wild. Derivative-free optimization methods, Acta Numerica (2019)
  • P.-W. Wang, P. Donti, B. Wilder, J. Z. Kolter. Satnet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver, ICML (2019)