METHODES DUALES POUR PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES

METHODES DUALES POUR PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES PDF Author: Philippe Michelon
Publisher:
ISBN:
Category :
Languages : fr
Pages : 124

Get Book Here

Book Description
CETTE THESE EST COMPOSEE DE DEUX PARTIES DISTINCTES: PARTIE A: METHODES DUALES POUR PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES. ON PRESENTE ICI UNE APPROCHE DE RESOLUTION DES PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES PAR DES METHODES DUALES. LE CHAPITRE I CONTIENT UNE SYNTHESE DES DIFFERENTES VARIANTES DE RELAXATION ET DECOMPOSITION LAGRANGIENNE POUR PROBLEMES LINEAIRES. ON EVALUE LES MERITES RESPECTIFS DE CES TECHNIQUES ET ON MONTRE COMMENT ANALYSER UN PROBLEME DE FACON A CHOISIR LA PLUS APPROPRIEE. LE CHAPITRE II EST CONSACRE AUX PROBLEMES NON LINEAIRES. ON PROPOSE NOTAMMENT DE RESOUDRE DE TELS PROBLEMES PAR DECOMPOSITION LAGRANGIENNE. LA FACON DONT LA DUALISATION EST SUGGEREE FOURNIT, A CHAQUE ITERATION, UNE SOLUTION REALISABLE. DES ALGORITHMES DE REDUCTION DU SAUT DE DUALITE SONT EGALEMENT PRESENTES. ENFIN, ON S'INTERESSE PLUS PARTICULIEREMENT AUX PROBLEMES QUADRATIQUES EN VARIABLES BINAIRES. PARTIE B: DES ALGORITHMES DE POINTS INTERIEURS POUR PROGRAMMATION LINEAIRE. L'ALGORITHME REVOLUTIONNAIRE DE KARMARKAR, OU SES VARIANTES, PRESENTE DEUX INCONVENIENTS: IL FAUT, A CHAQUE ITERATION, INVERSER UNE MATRICE ET LA SUITE DES COUTS LINEAIRES N'EST PAS NECESSAIREMENT DECROISSANTE. NOUS PROPOSONS ICI UNE FAMILLE D'ALGORITHMES PALLIANT CES INCONVENIENTS. LE PRINCIPE DE CES ALGORITHMES REPOSE SUR LA METHODE DE GAUSS-SEIDEL

METHODES DUALES POUR PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES

METHODES DUALES POUR PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES PDF Author: Philippe Michelon
Publisher:
ISBN:
Category :
Languages : fr
Pages : 124

Get Book Here

Book Description
CETTE THESE EST COMPOSEE DE DEUX PARTIES DISTINCTES: PARTIE A: METHODES DUALES POUR PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES. ON PRESENTE ICI UNE APPROCHE DE RESOLUTION DES PROBLEMES D'OPTIMISATION AVEC VARIABLES ENTIERES PAR DES METHODES DUALES. LE CHAPITRE I CONTIENT UNE SYNTHESE DES DIFFERENTES VARIANTES DE RELAXATION ET DECOMPOSITION LAGRANGIENNE POUR PROBLEMES LINEAIRES. ON EVALUE LES MERITES RESPECTIFS DE CES TECHNIQUES ET ON MONTRE COMMENT ANALYSER UN PROBLEME DE FACON A CHOISIR LA PLUS APPROPRIEE. LE CHAPITRE II EST CONSACRE AUX PROBLEMES NON LINEAIRES. ON PROPOSE NOTAMMENT DE RESOUDRE DE TELS PROBLEMES PAR DECOMPOSITION LAGRANGIENNE. LA FACON DONT LA DUALISATION EST SUGGEREE FOURNIT, A CHAQUE ITERATION, UNE SOLUTION REALISABLE. DES ALGORITHMES DE REDUCTION DU SAUT DE DUALITE SONT EGALEMENT PRESENTES. ENFIN, ON S'INTERESSE PLUS PARTICULIEREMENT AUX PROBLEMES QUADRATIQUES EN VARIABLES BINAIRES. PARTIE B: DES ALGORITHMES DE POINTS INTERIEURS POUR PROGRAMMATION LINEAIRE. L'ALGORITHME REVOLUTIONNAIRE DE KARMARKAR, OU SES VARIANTES, PRESENTE DEUX INCONVENIENTS: IL FAUT, A CHAQUE ITERATION, INVERSER UNE MATRICE ET LA SUITE DES COUTS LINEAIRES N'EST PAS NECESSAIREMENT DECROISSANTE. NOUS PROPOSONS ICI UNE FAMILLE D'ALGORITHMES PALLIANT CES INCONVENIENTS. LE PRINCIPE DE CES ALGORITHMES REPOSE SUR LA METHODE DE GAUSS-SEIDEL

Algorithmes d'optimisation en grande dimension

Algorithmes d'optimisation en grande dimension PDF Author: Audrey Repetti
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.

Optimisation appliquée

Optimisation appliquée PDF Author: Yadolah Dodge
Publisher: Springer Science & Business Media
ISBN: 9782287213359
Category : Mathematics
Languages : fr
Pages : 350

Get Book Here

Book Description
Cet ouvrage présente les concepts fondamentaux d'optimisation classique et de programmation linéaire. Il comporte une partie de théorie mathématique sur le calcul matriciel et les systèmes d'équations et d'inéquations linéaires. L’ouvrage traite ensuite d'optimisation classique avec et sans contraintes, de programmation linéaire, de la méthode du simplexe et du simplexe révisé. Les derniers chapitres sont consacrés à la dualité, à la post-optimisation et analyse de sensibilité ainsi qu'aux problèmes de transport.

Techniques d'optimisation

Techniques d'optimisation PDF Author: Max Cerf
Publisher:
ISBN: 9782759827688
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
Cet ouvrage en deux tomes propose un panorama des techniques d'optimisation continue, discrète et fonctionnelle. Ce premier tome est consacré à l'optimisation continue qui traite des problèmes à variables réelles, sans ou avec contraintes. Après des rappels sur les conditions d'optimalité et leur interprétation géométrique, les thèmes abordés sont : les algorithmes sans gradient qui peuvent s'appliquer à tout type de fonction ; les algorithmes sans contraintes basés sur des méthodes de descente de type Nexton ; les algorithmes avec contraintes : méthodes de pénalisation, primales, duales et primales-duales ; la programmation linéaire avec la méthode du simplexe et les méthodes de point intérieur. L'accent est mis sur la compréhension des principes plutôt que sur la rigueur mathématique. Chaque notion ou algorithme est accompagné d'un exemple détaillé aidant à s'approprier les idées principales. Cet ouvrage issu de 30 années d'expérience s'adresse aux étudiants, chercheurs et ingénieurs désireux d'acquérir une culture générale dans le domaine de l'optimisation.

Initiation à l’optimisation : métaheuristiques - Problèmes à variables continues

Initiation à l’optimisation : métaheuristiques - Problèmes à variables continues PDF Author: Dominique Barchiesi
Publisher: Editions Ellipses
ISBN: 2340091632
Category : Science
Languages : fr
Pages : 265

Get Book Here

Book Description
Les métaheuristiques sont parmi les méthodes d’optimisation les plus faciles à mettre en œuvre pour trouver la solution à des problèmes difficiles voire impossibles à résoudre directement, en s’inspirant de phénomènes issus de la nature et des sciences. Douze méthodes avec variantes sont présentées et les codes en Matlab/GNU octave sont donnés : GA (génétique),DE (évolution différentielle),BBO (biogéographie),RS (recuit simulé),GSO (Gravitationnel),CRO (réaction chimique),PSO (essaim de particules),LUC (lucioles),ABC (colonies d’abeilles artificielles),GWO (loup gris),ACO (colonies de fourmis),BSO (brainstorming). Elles sont caractérisées, comparées et les outils fournis permettent de les combiner, les modifier ad libitum afin de les adapter à des problèmes réels. Des applications à la thermique, l’électronique, l’agriculture, la mécanique permettent d’étendre leur domaine d’application à la résolution de problème inverse, à l’ajustement de modèle à des résultats expérimentaux et à la propagation d’incertitudes.

OPTIMISATION NON LINEAIRE EN VARIABLES BIVALENTES ET APPLICATIONS

OPTIMISATION NON LINEAIRE EN VARIABLES BIVALENTES ET APPLICATIONS PDF Author: ROUQUIA.. DJABALI
Publisher:
ISBN:
Category :
Languages : fr
Pages : 172

Get Book Here

Book Description
LE PROBLEME DE LA MINIMISATION D'UNE FONCTION PSEUDO-BOOLEENNE QUADRATIQUE SOUS UNE CONTRAINTE LINEAIRE EST NP-DIFFICILE. PAR CONSEQUENT, L'OBTENTION DE BORNES INFERIEURES EST IMPORTANTE. NOUS AVONS ETUDIE DIFFERENTES METHODES POUR CALCULER DES BORNES INFERIEURES DE LA SOLUTION OPTIMALE ET NOUS MONTRONS QUE LE CALCUL DE CES BORNES REVIENT A LA RESOLUTION DE PROGRAMMES LINEAIRES CONTINUS. LA PRINCIPALE ORIGINALITE DE NOS TRAVAUX, EST QU'ILS GENERALISENT LES BORNES PROPOSEES POUR LE PROBLEME DE LA MINIMISATION D'UNE FONCTION PSEUDO-BOOLEENNE QUADRATIQUE SANS CONTRAINTES. NOUS AVONS ENSUITE APPLIQUE LE CALCUL DES BORNES PROPOSEES A DES PROBLEMES PARTICULIERS ; LA BIPARTITION MINIMALE D'UN GRAPHE, L'ENSEMBLE STABLE DE CARDINAL MAXIMAL D'UN GRAPHE ET LE SAC A DOS QUADRATIQUE. POUR CHAQUE PROBLEME NOUS AVONS MIS EN EVIDENCE DES PROPRIETES INTERESSANTES QUI PERMETTENT DE SIMPLIFIER LE CALCUL DES BORNES ET DES COUPES QUI PERMETTENT D'AMELIORER LA QUALITE DES BORNES PROPOSEES. EN OUTRE, POUR REDUIRE LE TEMPS DE RESOLUTION DES PROGRAMMES LINEAIRES CONTINUS CONSIDERES, NOUS AVONS ELABORE UNE METHODE DE COUPES QUI PERMET DE RESOUDRE DES PROGRAMMES LINEAIRES CONTINUS DE MANIERE APPROCHEE. ENFIN, POUR CHAQUE PROBLEME PARTICULIER, NOUS AVONS INTEGRE NOTRE METHODE DE COUPES DANS UN ALGORITHME DE RESOLUTION EXACTE (BRANCH AND CUT). NOUS NOUS SOMMES EGALEMENT INTERESSE A UN PROBLEME D'OPTIMISATION LIE A L'ARCHITECTURE DES FUTURS RESEAUX NUMERIQUES URBAINS. LE PROBLEME EST DE DETERMINER UNE TOPOLOGIE EN ANNEAU DE COUT MINIMAL QUI RESPECTE UN CERTAIN NOMBRE DE CONTRAINTES. NOUS AVONS MODELISE CE PROBLEME A L'AIDE DE LA PROGRAMMATION MATHEMATIQUE ET MONTRE QU'UNE METHODE DE RESOLUTION FONDEE SUR LA PROGRAMMATION LINEAIRE EN NOMBRES ENTIERS ET LES METHODES DE COUPES PERMET DE TRAITER DES PROBLEMES REELS AVEC UN TEMPS DE CALCUL RAISONNABLE.

Techniques d'optimisation

Techniques d'optimisation PDF Author: Max Cerf
Publisher:
ISBN: 9782759827732
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
Cet ouvrage en deux tomes propose un panorama des techniques d'optimisation continue, discrète et fonctionnelle. Ce deuxième tome est consacré à l'optimisation discrète (problèmes à variables entières) et à l'optimisation fonctionnelle (problèmes dont l'inconnue est une fonction). Les thèmes abordés sont : la programmation linéaire mixte : méthodes de coupes et méthodes arborescentes ; l'optimisation combinatoire basée sur les graphes : problèmes de chemin, de flot, d'affectation... ; le calcul des variations basé sur les conditions d'Euler-Lagrange et leurs extensions ; la commande optimale basée sur le principe du maximum de Pontryaguin et ses extensions ; les méthodes numériques : équations différentielles, méthodes directes et indirectes. L'accent est mis sur la compréhension des principes plutôt que sur la rigueur mathématique. Chaque notion ou algorithme est accompagné d'un exemple détaillé aidant à s'approprier les idées principales. Cet ouvrage issu de 30 années d'expérience s'adresse aux étudiants, chercheurs et ingénieurs désireux d'acquérir une culture générale dans le domaine de l'optimisation.

Heuristiques hybrides pour la résolution de problèmes en variables 0-1 mixtes

Heuristiques hybrides pour la résolution de problèmes en variables 0-1 mixtes PDF Author: Christophe Wilbaut
Publisher:
ISBN:
Category :
Languages : fr
Pages : 188

Get Book Here

Book Description
Les problèmes d’optimisation en variables 0-1 mixtes permettent de modéliser de nombreux problèmes réels difficiles à résoudre. Cette thèse s’intéresse à la mise en œuvre de méthodes de résolution hybrides pour obtenir des solutions de bonne qualité en des temps raisonnables pour ces problèmes. L’ensemble des algorithmes présentés dans cette thèse est testé sur le problème du sac-à-dos multidimensionnel qui consiste à maximiser une fonction linéaire en respectant un ensemble de contraintes linéaires. Nous présentons dans le premier chapitre différents problèmes de la famille du sac-à-dos. Nous abordons dans le second chapitre un ensemble de méthodes efficaces existantes pour résoudre le problème du sac-à-dos multidimensionnel. Nous proposons dans le chapitre 3 une première méthode hybride qui combine la programmation dynamique et la recherche tabou au sein d’un processus dit d’intensification globale. Des concepts de réduction sont intégrés dans la programmation dynamique pour essayer de réduire la taille du problème. La seconde approche décrite dans le chapitre 4 combine la recherche dispersée avec des éléments de la recherche tabou et des chemins reliants pour affiner la recherche. Une étude expérimentale est menée pour mesurer l’impact de différents composants de l’algorithme. Le chapitre 5 présente une approche utilisant conjointement la relaxation en continu et la relaxation en nombres entiers mixtes pour résoudre efficacement les problèmes en variables 0-1. Un ensemble de résultats numériques est présenté pour chacune des méthodes. La dernière permet d’améliorer quelques meilleures valeurs connues sur des instances existantes de sac-à-dos multidimensionnel.

ADAPTATION AUX PROBLEMES A VARIABLES CONTINUES DE PLUSIEURS METAHEURISTIQUES D'OPTIMISATION COMBINATOIRE

ADAPTATION AUX PROBLEMES A VARIABLES CONTINUES DE PLUSIEURS METAHEURISTIQUES D'OPTIMISATION COMBINATOIRE PDF Author: RACHID.. CHELOUAH
Publisher:
ISBN:
Category :
Languages : fr
Pages : 133

Get Book Here

Book Description
LES METAHEURISTIQUES - PRINCIPALEMENT LE RECUIT SIMULE, LA METHODE DE RECHERCHE TABOU, LES ALGORITHMES GENETIQUES - SONT CONSIDEREES COMME DES METHODES EFFICACES POUR LA RESOLUTION DE PROBLEMES D'OPTIMISATION COMBINATOIRES. LE TRAVAIL PRESENTE DANS LE CADRE DE CETTE THESE CONSISTE A ADAPTER CES METHODES EN VUE DU TRAITEMENT DES FONCTIONS A VARIABLES CONTINUES, A LES REUNIR DANS UN MEME ENVIRONNEMENT, AFIN DE COMPARER LEURS EFFICACITES, ET A LES APPLIQUER A PLUSIEURS PROBLEMES RELEVANT DU CONTROLE NON DESTRUCTIF PAR COURANTS DE FOUCAULT. NOUS AVONS D'ABORD PROPOSE UNE STRATEGIE EFFICACE DE DISCRETISATION DES VARIABLES, NOUS AVONS DEFINI LA NOTION DE VOISINAGE, ET, POUR CHACUNE DES METHODES DEVELOPPEES, NOUS AVONS EXPLOITE DEUX CONCEPTS : LA DIVERSIFICATION ET L'INTENSIFICATION. LA DIVERSIFICATION PERMET DE BIEN COUVRIR L'ESPACE DES SOLUTIONS, ET DE DETERMINER LES ZONES PROMETTEUSES. L'INTENSIFICATION PERMET D'APPROFONDIR LA RECHERCHE DANS CHACUNE DES ZONES PROMETTEUSES LOCALISEES. NOUS AVONS D'ABORD DEVELOPPE DEUX NOUVELLES METHODES ; LA PREMIERE EST INSPIREE DE LA METHODE DE LA RECHERCHE TABOU, LA SECONDE EST UNE ADAPTATION DES ALGORITHMES GENETIQUES. PUIS NOUS AVONS PERFECTIONNE UN ALGORITHME DE RECUIT SIMULE ADAPTE AUX PROBLEMES A VARIABLES CONTINUES. AFIN D'ACCELERER LA CONVERGENCE DE CES METHODES PURES, NOUS LES AVONS COUPLEES AVEC UNE METHODE DE RECHERCHE LOCALE. NOUS AVONS, A CETTE FIN, MODIFIE LES PHASES D'INTENSIFICATION, EN UTILISANT LA METHODE DU POLYTOPE DE NELDER-MEAD, ET NOUS AVONS AINSI OBTENU TROIS METHODES HYBRIDES. NOUS AVONS REUNI TOUTES CES METHODES DANS UN MEME LOGICIEL, QUE NOUS AVONS APPELE OPTIM. CE LOGICIEL A ETE DEVELOPPE EN PROGRAMMATION ORIENTEE OBJET, ET IMPLEMENTE EN C + +, PUIS EN LANGAGE MATLAB. EN COLLABORATION AVEC LE C.E.A., NOUS AVONS APPLIQUE LES METHODES DEVELOPPEES A L'OPTIMISATION DE CERTAINES FONCTIONS UTILISEES POUR LA CARACTERISATION DE MODELES D'INVERSION, EN CONTROLE NON DESTRUCTIF PAR COURANTS DE FOUCAULT.

Optimisation

Optimisation PDF Author: Alfred Auslender
Publisher:
ISBN:
Category : Decomposition method
Languages : fr
Pages : 190

Get Book Here

Book Description