Optimisation sans contrainte
Optimisation différentiable
AF1252 v1 Article de référence

Optimisation sans contrainte
Optimisation différentiable

Auteur(s) : Jean Charles GILBERT

Date de publication : 10 avr. 2008 | Read in English

Logo Techniques de l'Ingenieur Cet article est réservé aux abonnés
Pour explorer cet article plus en profondeur Consulter l'extrait gratuit

Déjà abonné ?

Sommaire

Présentation

RÉSUMÉ

Les problèmes d’optimisation différenciable se posent lorsque l’on cherche à déterminer la valeur optimale d’un nombre fini de paramètres, l’optimalité signifiant la minimalité d’un critère donné. Cet article décrit les principaux algorithmes de résolution de ces problèmes, en précisant leur motivation. Ces problèmes de résolution se présentent dans de nombreux domaines de l’ingénieur, mais aussi en science et en économie. Ils se posent parfois en dimension infinie, on cherche alors à déterminer une fonction optimale. Les méthodes numériques actuelles de l’optimisation sont la résultante d‘avancées qui ne cessent de se multiplier et de s’enrichir mutuellement.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

  • Jean Charles GILBERT : Directeur de recherche à l'INRIA (Institut national de recherche en informatique et en automatique)

INTRODUCTION

Cette synthèse raisonnée décrit les principaux algorithmes de résolution des problèmes d'optimisation différentiable et en donne leur motivation. Ces problèmes se posent lorsque l'on cherche à déterminer la valeur optimale d'un nombre fini de paramètres. L'optimalité signifie ici la minimalité d'un critère donné. La différentiabilité supposée des fonctions qui définissent le problème écarte d'emblée de notre propos l'optimisation combinatoire (les paramètres à optimiser ne prennent que des valeurs entières ou discrètes, voir le dossier « Optimisation en nombres entiers » [AF 1 251]) et l'optimisation non lisse (les fonctions ont des irrégularités, voir le dossier « Optimisation et convexité » [AF 1 253]).

Les problèmes d'optimisation se présentent dans de nombreux domaines de l'ingénieur, ainsi qu'en science et en économie, souvent après avoir conduit à leur terme les étapes de simulation. Il arrive souvent que ces problèmes se posent en dimension infinie, c'est-à-dire que l'on cherche une fonction optimale plutôt qu'un nombre fini de paramètres optimaux. Il faut alors passer par une phase de discrétisation (en espace, en temps) pour retrouver le cadre qui est le nôtre et se ramener ainsi à un problème qui peut être résolu sur ordinateur. La transcription directe des problèmes de commande optimale suit une telle procédure de discrétisation. D'autres exemples sont décrits dans le dossier « Optimisation continue » [S 7 210].

Les méthodes numériques de l'optimisation ont principalement été développées après la seconde guerre mondiale, en parallèle avec l'amélioration des ordinateurs, et n'ont cessé depuis de s'enrichir. En optimisation non linéaire, on peut ainsi distinguer plusieurs vagues : méthodes de pénalisation, méthode du lagrangien augmenté (1958), méthodes de quasi-Newton (1959), méthodes newtoniennes ou SQP (1976), algorithmes de points intérieurs (1984). Une vague n'efface pas la précédente mais permet d'apporter de meilleures réponses à certaines classes de problèmes, comme ce fut le cas pour les méthodes de points intérieurs en optimisation semi-définie positive (SDP). Une attention particulière est portée aux algorithmes pouvant traiter les problèmes de grande taille, ceux qui se présentent dans les applications.

La norme euclidienne (ou l2 ) est notée || · ||2 .

L'inégalité vw (resp. u < v ) entre deux vecteurs v et w signifie que viwi (resp. vi < wi ) pour tout indice i.

On note R(M) et N(M) l'image et le noyau d'une matrice M.

Pour indiquer qu'une matrice carrée M est symétrique semi-définie positive (resp. définie positive), on note M0 (resp. M0 ).

L'ensemble des matrices symétriques d'ordre n est noté Sn,S+n:={MSn:M0} et S++n:={MSn:M0} .

Une fonction f est dite de classe m,α si elle est m fois différentiable et si sa dérivée m-ième vérifie pour une constante C et pour tout x et y :

f(m)(y)f(m)(x)Cyxα.
Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 94 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-af1252

Article inclus dans l'offre

"Mathématiques"

(170 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

2. Optimisation sans contrainte

Dans ce paragraphe, nous nous intéressons à la minimisation d'une fonction f:n sur n tout entier (donc avec n variables non soumises à des contraintes), ce que nous écrivons :

minxnf(x). ( 10 )

La fonction est supposée régulière (c'est-à-dire, différentiable). Son gradient et son hessien en un itéré xk sont respectivement notés :

gk=g(xk)=f(xk)etHk=2f(xk).

Ceux-ci sont supposés calculés pour le produit scalaire euclidien, si bien que leurs composantes sont respectivement les dérivées partielles premières et secondes de f en xk . Nous exposons les techniques de base de l'optimisation numérique, techniques qui sont aussi utilisées en optimisation avec contraintes.

2.1 Techniques de globalisation

Les deux techniques que nous décrivons ci-après sont utilisées pour forcer la convergence des itérés, même si le premier d'entre eux est éloigné d'une solution. La recherche linéaire (§ 2.1.1...

Logo Techniques de l'Ingenieur

Cet article est réservé aux abonnés.
Il vous reste 93 % à découvrir.

Pour explorer cet article Consulter l'extrait gratuit

Déjà abonné ?


Lecture en cours
Optimisation sans contrainte

Article inclus dans l'offre

"Mathématiques"

(170 articles)

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques.

Des contenus enrichis

Quiz, médias, tableaux, formules, vidéos, etc.

Des modules pratiques

Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

Des avantages inclus

Un ensemble de services exclusifs en complément des ressources.

Voir l'offre

Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - MINOUX (M.) -   Optimisation en nombres entiers.  -  [AF 1 251], Mathématiques pour l'ingénieur, avr. 2008.

  • (2) - LEMARÉCHAL (C.) -   Optimisation et convexité.  -  [AF 1 253], Mathématiques pour l'ingénieur, avr. 2008.

  • (3) - LEMARÉCHAL (C.) -   Optimisation continue.  -  [S 7 210], Informatique industrielle, mars 2002.

  • (4) - CESSENAT (M.) -   Vocabulaire des mathématiques.  -  [A 1 205], Mathématiques pour l'ingénieur, fév. 1992.

  • (5) - MEURANT (G.) -   Méthodes de Krylov pour la résolution des systèmes linéaires.  -  [AF 488], Mathématiques pour l'ingénieur, avr. 2007.

  • (6) - BREZINSKI (C.) -   Méthodes numériques de base. Algèbre numérique.  -  [AF 1 221],...

ANNEXES

  1. 1 Outils
    Logo Techniques de l'Ingenieur

    Cet article est réservé aux abonnés.
    Il vous reste 94 % à découvrir.

    Pour explorer cet article Consulter l'extrait gratuit

    Déjà abonné ?


    Article inclus dans l'offre

    "Mathématiques"

    (170 articles)

    Une base complète d’articles

    Actualisée et enrichie d’articles validés par nos comités scientifiques.

    Des contenus enrichis

    Quiz, médias, tableaux, formules, vidéos, etc.

    Des modules pratiques

    Opérationnels et didactiques, pour garantir l'acquisition des compétences transverses.

    Des avantages inclus

    Un ensemble de services exclusifs en complément des ressources.

    Voir l'offre

    Ressources documentaires

    Optimisation et convexité

    L’optimisation peut se voir appliquer deux méthodes bien différentes, le continu et le discret. ...

    Méthodes directes d’optimisation - Méthodes dérivées de la méthode Simplex

    Devant l’intérêt, la souplesse, la robustesse et la facilité d’utilisation de la ...

    Calcul des valeurs propres

    Calculer les valeurs propres et les vecteurs propres de matrices est un important problème en analyse ...

    Comportement dynamique des systèmes à événements discrets dans l’algèbre des dioïdes

    Cet article s’intéresse au comportement dynamique des systèmes à événements discrets, dans une structure ...