Séminaire des Doctorants

Le jeudi 31 janvier 2013 à 17h30 - Salle 331

Guillaume Garrigos
Convergence de méthodes de descente dans le cadre Hilbertien : une conséquence de l’inégalité de Kurdyka-Lojasiewicz.

En optimisation, la recherche du minimum d’une fonction f : H —> R est intimement liée au comportement à l’infini des solutions du système gradient associé à la fonction : leur limite, si elle existe, est un bon candidat à être un point critique voire un minimum de f. En pratique on discrétise en temps ce système gradient afin de générer une suite dans H, se pose alors la question de la convergence de cette suite : cela va dépendre des propriétés de f. L’inégalité de Kurdka-Lojasiewicz est une relation statuant sur le comportement d’une fonction au voisinage de ses points critiques. Elle a été originellement introduite par Lojasiewicz qui voulait montrer que les trajectoires du système gradient associé à un potentiel analytique convergent ; elle a depuis été réutilisée dans des domaines variés, par exemple pour prouver la convergence de solutions de l’équation de la chaleur (avec non-linéarité analytique). Nous allons voir que grâce à cette inégalité nous allons pouvoir obtenir la convergence de la plupart des algorithmes de descente (méthodes gradient, proximale, Forward-Backward) et ce dans un cadre non-lisse non-convexe. Par ailleurs nous verrons que cette propriété est naturellement vérifiée par de nombreuses fonctions intervenant en optimisation, par exemple pour le problème de la compression de données.



Voir la liste des séminaires