Contribution à l'étude des méthodes de décomposition et de barrières en optimisation et de barrières en optimisation convexe

Contribution à l'étude des méthodes de décomposition et de barrières en optimisation et de barrières en optimisation convexe PDF Author: Mounir Haddou
Publisher:
ISBN:
Category :
Languages : fr
Pages : 127

Get Book Here

Book Description
Cette thèse se compose de trois parties principales indépendantes. Dans la première partie, nous proposons une méthode de décomposition parallèle pour résoudre une grande classe de problèmes d'optimisation convexe (problèmes convexes a cout fortement convexe). Nous établissons des résultats de convergence globale pour cette méthode et présentons une série de résultats et comparaisons numériques effectues sur une machine du type cm-5. Dans la deuxième partie, nous étendons le champ d'application des méthodes entropie-proximales (qui ne s'appliquaient qu'aux problèmes d'optimisation convexe sur l'orthant positif) aux problèmes d'optimisation convexe sous contraintes linéaires et aux problèmes d'inégalités variationnelles sur des polyèdres. De plus, en programmation linéaire, nous donnons un résultat de convergence quadratique et présentons quelques résultats numériques. La dernière partie est consacrée à l'étude d'une grande classe de méthodes de pénalités et de barrières recouvrant la plupart des méthodes existantes. Nous donnons des moyens systématiques pour obtenir de telles fonctions et analysons l'existence des séquences primales et duales générées par ces méthodes. Ensuite, nous étudions la convergence de ces séquences vers les ensembles de solutions du problème primal et du problème dual. Dans le cas de programmation linéaire, nous montrons que ces séquences convergent vers des limites uniques et présentons quelques résultats numériques

Contribution à l'étude des méthodes de décomposition et de barrières en optimisation et de barrières en optimisation convexe

Contribution à l'étude des méthodes de décomposition et de barrières en optimisation et de barrières en optimisation convexe PDF Author: Mounir Haddou
Publisher:
ISBN:
Category :
Languages : fr
Pages : 127

Get Book Here

Book Description
Cette thèse se compose de trois parties principales indépendantes. Dans la première partie, nous proposons une méthode de décomposition parallèle pour résoudre une grande classe de problèmes d'optimisation convexe (problèmes convexes a cout fortement convexe). Nous établissons des résultats de convergence globale pour cette méthode et présentons une série de résultats et comparaisons numériques effectues sur une machine du type cm-5. Dans la deuxième partie, nous étendons le champ d'application des méthodes entropie-proximales (qui ne s'appliquaient qu'aux problèmes d'optimisation convexe sur l'orthant positif) aux problèmes d'optimisation convexe sous contraintes linéaires et aux problèmes d'inégalités variationnelles sur des polyèdres. De plus, en programmation linéaire, nous donnons un résultat de convergence quadratique et présentons quelques résultats numériques. La dernière partie est consacrée à l'étude d'une grande classe de méthodes de pénalités et de barrières recouvrant la plupart des méthodes existantes. Nous donnons des moyens systématiques pour obtenir de telles fonctions et analysons l'existence des séquences primales et duales générées par ces méthodes. Ensuite, nous étudions la convergence de ces séquences vers les ensembles de solutions du problème primal et du problème dual. Dans le cas de programmation linéaire, nous montrons que ces séquences convergent vers des limites uniques et présentons quelques résultats numériques

OPTIMISATION SOUS-DIFFERENTIABLE ET METHODES DE DECOMPOSITION

OPTIMISATION SOUS-DIFFERENTIABLE ET METHODES DE DECOMPOSITION PDF Author: DAO LI.. ZHU
Publisher:
ISBN:
Category :
Languages : fr
Pages : 138

Get Book Here

Book Description
ETUDE D'UNE METHODE GENERALE DE DECOMPOSITION EN OPTIMISATION SOUS-DIFFERENTIABLE. APRES UN RAPPEL SUR L'OPTIMISATION CONVEXE ON PRESENTE LE PRINCIPE DU PROBLEME AUXILIAIRE ET LA METHODE DE DECOMPOSITION DANS LE CAS CONVEXE ET LA FAMILLE D'ALGORITHMES CORRESPONDANTE, AINSI QU'UN EXEMPLE NUMERIQUE. ON TRAITE ENSUITE DES PROBLEMES D'OPTIMISATION CONVEXE SOUS CONTRAINTE. ON DONNE DES ALGORITHMES DE DECOMPOSITION A DEUX NIVEAUX PAR DUALITE. ON ETUDIE DES METHODES POUR ASSURER LA STABILITE DU LAGRANGIEN, AINSI QUE DES METHODES DE DECOMPOSITION DES LAGRANGIENS AUGMENTES. ON DONNE DES EXEMPLES NUMERIQUES

Décomposition-coordination en optimisation déterministe et stochastique

Décomposition-coordination en optimisation déterministe et stochastique PDF Author: Pierre Carpentier
Publisher: Springer
ISBN: 3662554283
Category : Mathematics
Languages : fr
Pages : 338

Get Book Here

Book Description
Ce livre considère le traitement de problèmes d'optimisation de grande taille. L'idée est d'éclater le problème d'optimisation global en sous-problèmes plus petits, donc plus faciles à résoudre, chacun impliquant l'un des sous-systèmes (décomposition), mais sans renoncer à obtenir l'optimum global, ce qui nécessite d'utiliser une procédure itérative (coordination). Ce sujet a fait l'objet de plusieurs livres publiés dans les années 70 dans le contexte de l'optimisation déterministe. Nous présentans ici les principes essentiels et méthodes de décomposition-coordination au travers de situations typiques, puis nous proposons un cadre général qui permet de construire des algorithmes corrects et d'étudier leur convergence. Cette théorie est présentée aussi bien dans le contexte de l'optimisation déterministe que stochastique. Ce matériel a été enseigné par les auteurs dans divers cours de 3ème cycle et également mis en œuvre dans de nombreuses applications industrielles. Des exercices et problèmes avec corrigés illustrent le potentiel de cette approche. This book discusses large-scale optimization problems involving systems made up of interconnected subsystems. The main viewpoint is to break down the overall optimization problem into smaller, easier-to-solve subproblems, each involving one subsystem (decomposition), without sacrificing the objective of achieving the global optimum, which requires an iterative process (coordination). This topic emerged in the 70’s in the context of deterministic optimization. The present book describes the main principles and methods of decomposition-coordination using typical situations, then proposes a general framework that makes it possible to construct well-behaved algorithms and to study their convergence. This theory is presented in the context of deterministic as well as stochastic optimization, and has been taught by the authors in graduate courses and implemented in numerous industrial applications. The book also provides exercises and problems with answers to illustrate the potential of this approach.

Optimisation Convexe Non-différentiable Et Méthodes de Décomposition en Recherche Opérationnelle

Optimisation Convexe Non-différentiable Et Méthodes de Décomposition en Recherche Opérationnelle PDF Author: Sofia Zaourar
Publisher:
ISBN:
Category :
Languages : en
Pages : 0

Get Book Here

Book Description
Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem.

Contribution à l'optimisation hiérarchisée des grands systèmes complexes

Contribution à l'optimisation hiérarchisée des grands systèmes complexes PDF Author: Assann Sidaoui
Publisher:
ISBN:
Category :
Languages : fr
Pages : 160

Get Book Here

Book Description
L'ETUDE PORTE SUR LA RESOLUTION DE PROBLEMES D'OPTIMISATION DES GRANDS SYSTEMES COMPLEXES. DEUX TYPES DE DIFFICULTES SONT ABORDES: DIFFICULTES DE CALCUL, ET DIFFICULTES LIEES A L'IMPRECISION DES MODELES QUI DECRIVENT LES SYSTEMES A OPTIMISER. ADOPTANT DES STRUCTURES HIERARCHISEES DE RESOLUTION, ON RAPPELLE TOUT D'ABORD LES PRINCIPES GENERAUX DE LA COMMANDE HIERARCHISEE. ENSUITE, ON PRESENTE UNE SYNTHESE DES PRINCIPALES METHODES DE DECOMPOSITION-COORDINATION EN UTILISANT L'APPROCHE POURSUITE D'OBJECTIFS. DES NOUVEAUX DEVELOPPEMENTS ALGORITHMIQUES QUI ENTRAINENT UNE AMELIORATION SENSIBLE DE L'EFFICACITE DES STRUCTURES DE RESOLUTION SONT EGALEMENT PRESENTES. CES DEVELOPPEMENTS SONT VALIDES EN ASSOCIATION AVEC DES STRUCTURES MULTI-NIVEAUX DE COORDINATION SUR UN PROBLEME DE GESTION D'UN SYSTEME HYDROTHERMIQUE. DANS LA SECONDE PARTIE DE L'ETUDE, ON DEVELOPPE DES STRUCTURES D'OPTIMISATION HIERARCHISEE QUI PRENNENT EN COMPTE L'IMPRECISION DES MODELES MATHEMATIQUES. UN NOUVEL ALGORITHME DE POURSUITE D'OBJECTIFS INTRODUISANT LA TECHNIQUE DE RETOURS D'INFORMATIONS A PARTIR DU SYSTEME REEL EST DEVELOPPE. ENSUITE, LES OUTILS DE LA LOGIQUE FLOUE SONT EMPLOYES POUR ELABORER UNE METHODOLOGIE D'OPTIMISATION DES SYSTEMES REPRESENTES PAR DES MODELES FLOUS

CONTRIBUTIONS A L'ETUDE DE METHODES DE CENTRES

CONTRIBUTIONS A L'ETUDE DE METHODES DE CENTRES PDF Author: AHMED.. ROUBI
Publisher:
ISBN:
Category :
Languages : fr
Pages : 104

Get Book Here

Book Description
CETTE THESE EST DIVISEE EN QUATRE CHAPITRES. ON CONSACRE LE CHAPITRE 1 A L'ETUDE D'UNE METHODE, DITE DE CENTRES, INTRODUITE PAR HUARD POUR RESOUDRE UN PROBLEME D'OPTIMISATION AVEC CONTRAINTES. ON MONTRE SA CONVERGENCE GLOBALE ET ON MONTRE QUE SA VITESSE DE CONVERGENCE EST LINEAIRE. ENSUITE, ON MET EN EVIDENCE L'INFLUENCE DU SCALING SUR CETTE VITESSE. ON MONTRE EGALEMENT QUE L'ALGORITHME DE O. PIRONNEAU ET E. POLAK, QUI EST UNE IMPLEMENTATION DE LA METHODE DES CENTRES DE HUARD, ET LA VERSION APPROCHEE DE LA METHODE SONT GLOBALEMENT CONVERGENTS. LA VITESSE DE CONVERGENCE DE LA METHODE NE PEUT ETRE PLUS QUE LINEAIRE, ON INTRODUIT ALORS UNE AUTRE METHODE DE CENTRES QUI ENGLOBE CELLE DE HUARD ET DONT LA VITESSE DE CONVERGENCE EST AU MOINS SUPER-LINEAIRE. DANS LE CHAPITRE 2 ON S'INTERESSE A LA PROGRAMMATION FRACTIONNAIRE GENERALISEE. DANS UN PREMIER TEMPS ON EXPOSE L'ALGORITHME DE DINKELBACH ET DEUX ALGORITHMES PRINCIPAUX EN PROGRAMMATION FRACTIONNAIRE GENERALISEE. A CHAQUE ETAPE DE CES ALGORITHMES, DES PROBLEMES AUXILIAIRES AVEC CONTRAINTES APPARAISSENT. ON MODIFIE CES ALGORITHMES, EN UTILISANT LA METHODE DE CENTRES, POUR N'AVOIR QUE DES SOUS PROBLEMES SANS CONTRAINTES. ON MONTRE ENSUITE QUE DANS LE CADRE CONVEXE, L'ALGORITHME MODIFIE CONVERGE LINEAIREMENT. DANS LE CHAPITRE 3, ON REPREND UN TRAVAIL DU A AUSLENDER QUI COMBINE LA METHODE DES CENTRES AVEC L'ALGORITHME PROXIMAL. L'ALGORITHME MODIFIE OBTENU NE DIFFERE ALORS PAS BEAUCOUP DE CELUI DE AUSLENDER ET EST GLOBALEMENT CONVERGENT. POUR CERTAINES CLASSES DE FONCTIONS, ON MONTRE QUE LA VITESSE DE CONVERGENCE EST LINEAIRE. DANS LE CHAPITRE 4 ON ETUDIE DES SCHEMAS DE PERTURBATIONS DE LA METHODE. ON RETROUVE DANS CE CHAPITRE, ENTRE AUTRE, CERTAINS RESULTATS DU CHAPITRE 1 ET LES METHODES DE PENALISATION INTERIEURES

Contribution à l'optimisation globale et à l'analyse non différentiable

Contribution à l'optimisation globale et à l'analyse non différentiable PDF Author: Rachid Ellaia
Publisher:
ISBN:
Category :
Languages : fr
Pages :

Get Book Here

Book Description
Les travaux qui composent cette thèse s'articulent autour des thèmes suivants : Optimisation globale, Analyse et optimisation non différentiables, Analyse convexe.

Algorithmes d'optimisation en grande dimension

Algorithmes d'optimisation en grande dimension PDF Author: Audrey Repetti
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.

Optimisation à deux niveaux

Optimisation à deux niveaux PDF Author: Abdelmalek Aboussoror
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description


Optimisation à deux niveaux

Optimisation à deux niveaux PDF Author: Smaïl Addoune
Publisher:
ISBN:
Category :
Languages : fr
Pages : 198

Get Book Here

Book Description
Notre travail s'est principalement orienté sur une analyse théorique de problèmes d'optimisation à deux niveaux avec une étude d'approximations de problèmes de Stackelberg susceptible de servir de base à des méthodes non heuristiques liées au développement de techniques d'optimisation globale. Dans le chapitre on présente des généralités sur les problèmes d'optimisation à deux niveaux. On donne des exemples permettant de motiver les différentes formulations proposées dans la littérature. L'analyse de la complexité des problèmes d'optimisation à deux niveaux est effectué dans le cas linéaire. Pour cela, on énonce un résultat établi par j. F. Bard que l'on démontre sous des hypothèses plus faibles et de façon plus directe. Le chapitre se termine par la présentation de résultats d'existence. Dans le deuxième chapitre, on s'intéresse à l'étude de conditions nécessaires et suffisantes d'optimalité pour des problèmes d'optimisation à deux niveaux à formulation forte. Dans un premier temps, on commence par l'étude d'une classe de problèmes d'optimisation globale appelés problèmes anti-convexes. On montre ensuite que certains problèmes d'optimisation à deux niveaux peuvent être reformulés en problèmes de la classe ainsi considérée, ce qui nous permet d'en déduire des conditions nécessaires et suffisantes d'optimalité locale. Pour les conditions d'optimalité globale on ne considère que le cas linéaire et on montre que le problème d'optimisation à deux niveaux est équivalent à un problème de maximisation d'une fonction convexe sur un convexe compact. Dans le dernier chapitre, on s'intéresse à des problèmes d'optimisation à deux niveaux à formulation faible. Pour de tels problèmes, il est connu qu'en général les solutions n'existent pas même sous des hypothèses assez fortes, ce qui a conduit à l'introduction d'ensembles de solutions plus grands qui peuvent constituer de bons candidats pour la résolution du problème pose. On étudie ensuite deux procédures de régularisation combinées à une méthode introduite par Molodtsov. Nous présentons alors des résultats nouveaux sur l'approximation de sous-équilibres exacts. Nous donnons pour terminer des résultats de stabilité sous perturbations de données