Méthodes d'optimisation convexe non différentiable
Adam Ouorou  1@  
1 : Orange S.A.
Orange S.A.

Nous passons en revue les idées de base qui sous-tendent la vaste famille des algorithmes de minimisation des fonctions convexes non différentiables. Les méthodes les plus simples reposent sur la construction des modèles de la fonction à minimiser. Mais le manque de continuité d'information de premier ordre fait que ces modèles ne sont pas fiables même proche d'un optimum. Ceci motive l'introduction de différents moyens de stabilisation. Les méthodes basées sur les ensembles dits de localisation sont présentées de même que leurs améliorations par la stabilisation. Nous terminons par les approches exploitant les techniques d'accélération proposées par Nesterov pour les méthodes de gradient.


Personnes connectées : 3 Vie privée
Chargement...