MA5052 - Optimisation Mathématique pour l'apprentissage

Vous êtes ici :

MA5052 - Optimisation Mathématique pour l'apprentissage

Objectifs

Objectif général :

Maîtriser les concepts et algorithmes de l'optimisation non linéaire en grande dimension basés sur des méthodes du premier ordre. Les concepts et algorithmes concernés sont les suivants:

Motivation et exemples de problèmes d'apprentissage automatique
Eléments d'analyse convexe
Méthode du gradient et accélération de la méthode du gradient
Méthode du sous-gradient
Méthode du gradient proximal
Méthode du gradient stochastique
Méthode de Frank-Wolfe et ADMM
Généralisation au cas non convexe

Etre capable de mettre en pratique ces méthodes et de les analyser. Pour cela, le cours est ensuite illustré par 2 TP sur machine qui donne lieu à la rédaction d'un article de type article scientifique sur les méthodes vues en cours, leurs avantages et limites.

Place dans le cursus

Programmation linéaire, programmation linéaire en nombres entiers, méthode du simplexe, branch-and-bound, dualité.

Volume horaire (h)

  • Cours Magistraux : 16h
  • Travaux Pratiques : 4h

Examens

Nombre total d'heures d’évaluation : 2

En bref

Crédits ECTS : Cf UE

Nombre d'heures 22

Contact(s)

Marcel MONGEAU

Tél : 05.62.25.95.73

Email : marcel.mongeau @ enac.fr

Lieu(x)

  • Toulouse