Optimisation d'hyperparamètres appliquée aux réseaux de neurones convolutifs (CNN)
Guillaume Lacharme  1@  , Hubert Cardot  2@  , Christophe LentÉ  3@  , Nicolas Monmarché  2@  
1 : Laboratoire dÍnformatique Fondamentale et Appliquée de Tours
Université de Tours : EA6300, Institut National des Sciences Appliquées - Centre Val de Loire, Centre National de la Recherche Scientifique
2 : Laboratoire d'Informatique Fondamentale et Appliquée de Tours (LIFAT)
Laboratoire d'Informatique Fondamentale et Appliquée de Tours (LIFAT)
3 : Laboratoire d'Informatique Fondamentale et Appliquée de Tours (LIFAT)
LIFAT EA 6300, CNRS, ROOT ERL CNRS 7002

Le problème d'optimisation d'hyperparamètres peut être défini comme un problème d'optimisation de boîte noire discrète.
Il existe de nombreux algorithmes conçus à cet effet tels que les algorithmes évolutionnaires ou
les algorithmes d'apprentissage par renforcement. Ces méthodes permettent d'obtenir de bons
résultats cependant elles sont très coûteuses à mettre en place. Il faut 2000 GPU jours pour l'apprentissage par renforcement (RL) ou 3150 GPU jours pour les algorithmes génétiques. 

Afin d'éviter ce processus coûteux, Liu et al (2019) a proposé de transformer le problème
d'optimisation discret en un problème d'optimisation continu. Cette approche permet de trouver une solution en 1 GPU jour cependant elle a tendance à converger vers des topologies de réseau peu profondes.

L'objectif de cette publication porte sur l'étude de ces limites et des améliorations possibles.


Personnes connectées : 9 Vie privée
Chargement...