Méthodes de sous-gradient dans les problèmes d'optimisation avec contraintes

Méthodes de sous-gradient dans les problèmes d'optimisation avec contraintes PDF Author: Michel Michalopoulos
Publisher:
ISBN:
Category :
Languages : fr
Pages : 89

Get Book Here

Book Description

Méthodes de sous-gradient dans les problèmes d'optimisation avec contraintes

Méthodes de sous-gradient dans les problèmes d'optimisation avec contraintes PDF Author: Michel Michalopoulos
Publisher:
ISBN:
Category :
Languages : fr
Pages : 89

Get Book Here

Book Description


Optimisation par une méthode du gradient avec accélération de la convergence

Optimisation par une méthode du gradient avec accélération de la convergence PDF Author: Nearkasen Chau
Publisher:
ISBN:
Category :
Languages : fr
Pages : 338

Get Book Here

Book Description
"On présente dans ce travail des algorithmes d'une "methode du gradient avec accélération de la convergence" et des programmes en Fortran IV concernant les problèmes de recherche du maximum d'une fonction réelle f définie, continûment dérivable et possédant au moins un maximum dans un sous-ensemble A de R(n)."

Décomposition-coordination en optimisation déterministe et stochastique

Décomposition-coordination en optimisation déterministe et stochastique PDF Author: Pierre Carpentier
Publisher: Springer
ISBN: 3662554283
Category : Mathematics
Languages : fr
Pages : 338

Get Book Here

Book Description
Ce livre considère le traitement de problèmes d'optimisation de grande taille. L'idée est d'éclater le problème d'optimisation global en sous-problèmes plus petits, donc plus faciles à résoudre, chacun impliquant l'un des sous-systèmes (décomposition), mais sans renoncer à obtenir l'optimum global, ce qui nécessite d'utiliser une procédure itérative (coordination). Ce sujet a fait l'objet de plusieurs livres publiés dans les années 70 dans le contexte de l'optimisation déterministe. Nous présentans ici les principes essentiels et méthodes de décomposition-coordination au travers de situations typiques, puis nous proposons un cadre général qui permet de construire des algorithmes corrects et d'étudier leur convergence. Cette théorie est présentée aussi bien dans le contexte de l'optimisation déterministe que stochastique. Ce matériel a été enseigné par les auteurs dans divers cours de 3ème cycle et également mis en œuvre dans de nombreuses applications industrielles. Des exercices et problèmes avec corrigés illustrent le potentiel de cette approche. This book discusses large-scale optimization problems involving systems made up of interconnected subsystems. The main viewpoint is to break down the overall optimization problem into smaller, easier-to-solve subproblems, each involving one subsystem (decomposition), without sacrificing the objective of achieving the global optimum, which requires an iterative process (coordination). This topic emerged in the 70’s in the context of deterministic optimization. The present book describes the main principles and methods of decomposition-coordination using typical situations, then proposes a general framework that makes it possible to construct well-behaved algorithms and to study their convergence. This theory is presented in the context of deterministic as well as stochastic optimization, and has been taught by the authors in graduate courses and implemented in numerous industrial applications. The book also provides exercises and problems with answers to illustrate the potential of this approach.

Méthodes numériques pour la résolution des problèmes d'optimisation avec contraintes

Méthodes numériques pour la résolution des problèmes d'optimisation avec contraintes PDF Author: Alfred Auslender
Publisher:
ISBN:
Category :
Languages : fr
Pages : 4

Get Book Here

Book Description


Optimisation

Optimisation PDF Author: Alfred Auslender
Publisher:
ISBN:
Category : Decomposition method
Languages : fr
Pages : 190

Get Book Here

Book Description


Méthode du gradient en programmation linéaire et quadratique

Méthode du gradient en programmation linéaire et quadratique PDF Author: Daniel Atlan
Publisher:
ISBN:
Category :
Languages : fr
Pages : 101

Get Book Here

Book Description
"Ce travail a pour objet la résolution par la Méthode du Gradient des problèmes d'optimisation à contraintes linéaires et à fonction objectif linéaire ou quadratique. Les méthodes et algorithmes sont déduits des méthodes générales de résolution des problèmes d'optimisation".

Méthodes numériques pour la résolution des problèmes d'optimisation avec contraintes

Méthodes numériques pour la résolution des problèmes d'optimisation avec contraintes PDF Author: Alfred Auslender
Publisher:
ISBN:
Category :
Languages : fr
Pages :

Get Book Here

Book Description


Optimisation en sciences de l'ingénieur : Méthodes exactes

Optimisation en sciences de l'ingénieur : Méthodes exactes PDF Author: BORNE Pierre
Publisher: Lavoisier
ISBN: 2746288974
Category :
Languages : en
Pages : 338

Get Book Here

Book Description
Optimisation en sciences de l’ingénieur présente les principales méthodes exactes d’optimisation statique et dynamique. Parmi les méthodes décrites, figurent : la programmation linéaire avec plusieurs implémentations et la programmation non linéaire, particulièrement détaillée compte tenu de la grande variété d’algorithmes existants ; la programmation dynamique avec divers exemples d’application ; les réseaux de Hopfield ; l’optimisation en identification des systèmes ; l’optimisation des systèmes dynamiques avec notamment l’application à la commande des processus, l’optimisation des systèmes de grandes dimensions et des systèmes d’information. Didactique, cet ouvrage propose des références permettant au lecteur d’approfondir les diverses méthodes traitées. Lorsque les algorithmes étudiés le permettent, sans trop agrandir les présentations, des exemples d’implémentation sont proposés.

Algorithmes d'optimisation en grande dimension

Algorithmes d'optimisation en grande dimension PDF Author: Audrey Repetti
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.

METHODES PROXIMALES ENTROPIQUES POUR LA RESOLUTION DES PROBLEMES D'OPTIMISATION ET D'INEGALITES VARIATIONNELLES

METHODES PROXIMALES ENTROPIQUES POUR LA RESOLUTION DES PROBLEMES D'OPTIMISATION ET D'INEGALITES VARIATIONNELLES PDF Author: SAMI.. BEN TIBA
Publisher:
ISBN:
Category :
Languages : en
Pages : 118

Get Book Here

Book Description
CETTE THESE PRESENTE DES METHODES NUMERIQUES PROXIMALES NOUVELLES POUR LA RESOLUTION DES PROBLEMES D'OPTIMISATION ET D'INEGALITES VARIATIONNELLES. L'ATTENTION A ETE ESSENTIELLEMENT CONCENTREE SUR LA CONSTRUCTION DE METHODES DE LAGRANGIEN AUGMENTE AVEC UN LAGRANGIEN AYANT DES PROPRIETES PARTICULIEREMENT INTERESSANTES, MAIS LES NOTIONS INTRODUITES ONT PERMIS D'ENVISAGER D'AUTRES APPLICATIONS, EN PARTICULIER CONCERNANT LES PENALISATIONS EXTERIEURES ET LES METHODES DE DECOMPOSITION. NOUS INTRODUISONS UNE NOUVELLE CLASSE DE FONCTIONS POUR LAQUELLE LES RESULTATS VONT ETRE GRANDEMENT AMELIORES. NOUS MONTRONS LA CONVERGENCE GLOBALE DE LA SUITE GENEREE. DE PLUS, CETTE METHODE APPLIQUEE AU PROBLEME D'OPTIMISATION CLASSIQUE AVEC CONTRAINTES D'INEGALITES (P C) VA DONNER UN LAGRANGIEN MODIFIE QUI FOURNIT UNE SUITE PRIMALE BORNEE SI L'ENSEMBLE DE SOLUTIONS OPTIMALES EST UN COMPACT, ET DONT LES VALEURS D'ADHERENCE SONT OPTIMALES. LA METHODE A ETE ETENDUE A DES POLYHEDRES CONVEXES ET UNE ETUDE DE RAPIDITE A ETE FAITE DANS LE CAS DE LA PROGRAMMATION LINEAIRE MONTRANT QUE LA SUITE F (X K) CONVERGE GLOBALEMENT DE FACON QUADRATIQUE VERS F *. EN PARTICULIER, DANS LE CAS OU EST LA FONCTION LOG-QUAD, IL A ETE DEMONTRE QUE POUR LA PROGRAMMATION QUADRATIQUE, CE NOUVEAU LAGRANGIEN EST SELF-CONCORDANT ET POUR LA PROGRAMMATION LINEAIRE SON HESSIEN EST LIPSCHITZIEN SUR TOUT L'ESPACE. CES PROPRIETES SONT ABSOLUMENT REMARQUABLES SI L'ON VEUT UTILISER LA METHODE DE NEWTON. LA METHODE A ETE ETENDUE AUX PROBLEMES D'INEGALITES VARIATIONNELLES, AVEC DES OPERATEURS MAXIMAUX MONOTONES ET SOUS CONTRAINTES LINEAIRES ; ON A AINSI ABOUTIT A UNE METHODE QUI GENERE UNE SUITE CONVERGEANTE VERS UNE SOLUTION OPTIMALE, SOUS LA SEULE CONDITION QU'UNE TELLE SOLUTION EXISTE. EN PLUS, NOUS NOUS SOMMES INTERESSES AUX ALGORITHMES DE DECOMPOSITION PAR BLOCS OU ON A OBTENU UNE NOUVELLE METHODE EN COUPLANT NOTRE METHODE AVEC LA METHODE CLASSIQUE DE GAUSS-SEIDEL.