Author: Jacques Denel
Publisher:
ISBN:
Category :
Languages : fr
Pages : 100
Book Description
On présente une méthode générale d'optimisation des programmes lmathématique non linéaires. Cette méthode est une adaptation de l'algorithme général "méthode des centres", dû à P. Huard
Résolution de problèmes d'optimisation non linéaires par la méthode des centres linéarisée
Author: Jacques Denel
Publisher:
ISBN:
Category :
Languages : fr
Pages : 100
Book Description
On présente une méthode générale d'optimisation des programmes lmathématique non linéaires. Cette méthode est une adaptation de l'algorithme général "méthode des centres", dû à P. Huard
Publisher:
ISBN:
Category :
Languages : fr
Pages : 100
Book Description
On présente une méthode générale d'optimisation des programmes lmathématique non linéaires. Cette méthode est une adaptation de l'algorithme général "méthode des centres", dû à P. Huard
Optimization Techniques
Author: Jean Céa
Publisher:
ISBN:
Category : Mathematics
Languages : en
Pages : 942
Book Description
Publisher:
ISBN:
Category : Mathematics
Languages : en
Pages : 942
Book Description
Studies on Mathematical Programming
Author: András Prékopa
Publisher:
ISBN:
Category : Mathematics
Languages : en
Pages : 208
Book Description
Publisher:
ISBN:
Category : Mathematics
Languages : en
Pages : 208
Book Description
Cahiers du Centre d'études de recherche opérationnelle
Author: Université libre de Bruxelles. Centre d'études de recherche opérationnelle
Publisher:
ISBN:
Category : Industrial management
Languages : en
Pages : 304
Book Description
Publisher:
ISBN:
Category : Industrial management
Languages : en
Pages : 304
Book Description
Optimisation Differentiable
Author:
Publisher: Ed. Techniques Ingénieur
ISBN:
Category :
Languages : fr
Pages : 18
Book Description
Publisher: Ed. Techniques Ingénieur
ISBN:
Category :
Languages : fr
Pages : 18
Book Description
Cahiers
Author: Centre d'études de recherche operationnelle
Publisher:
ISBN:
Category : Operations research
Languages : en
Pages : 324
Book Description
Publisher:
ISBN:
Category : Operations research
Languages : en
Pages : 324
Book Description
Méthode du gradient en programmation linéaire et quadratique
Author: Daniel Atlan
Publisher:
ISBN:
Category :
Languages : fr
Pages : 101
Book Description
"Ce travail a pour objet la résolution par la Méthode du Gradient des problèmes d'optimisation à contraintes linéaires et à fonction objectif linéaire ou quadratique. Les méthodes et algorithmes sont déduits des méthodes générales de résolution des problèmes d'optimisation".
Publisher:
ISBN:
Category :
Languages : fr
Pages : 101
Book Description
"Ce travail a pour objet la résolution par la Méthode du Gradient des problèmes d'optimisation à contraintes linéaires et à fonction objectif linéaire ou quadratique. Les méthodes et algorithmes sont déduits des méthodes générales de résolution des problèmes d'optimisation".
Optimisation continue
Author: Charles Audet
Publisher:
ISBN: 9782553017391
Category : Mathematical optimization
Languages : fr
Pages : 305
Book Description
Publisher:
ISBN: 9782553017391
Category : Mathematical optimization
Languages : fr
Pages : 305
Book Description
Optimisation combinatoire: Graphes et programmation linéaire
Author: Michel Sakarovitch
Publisher: Editions Hermann
ISBN:
Category : Algorithms
Languages : fr
Pages : 272
Book Description
"L'optimisation combinatoire traite des problèmes - apparemment dépourvus de mystère - dans lesquels on a à extraire un "meilleur" élément (de coût minimum, par exemple) d'un ensemble fini. Un instant de réflexion montre que la plupart des problèmes concrets d'optimisation appartiennent effectivement à cette classe ou peuvent se formuler de cette manière. Quoique fini, l'ensemble objet de l'étude comporte en général un grand nombre d'éléments (par rapport au nombre de données du problème). C'est ce phénomène qui, en interdisant la solution par énumération de toutes les solutions possibles, rend la problématique de l'optimisation combinatoire non triviale : on est amené à mettre en évidence certaines structures du modèle étudiées et à élaborer différentes méthodes de solution. Cet ouvrage présente l'ensemble de ces techniques très diverses [...]. Ce premier volume es un traité des deux disciplines fondamentales de l'optimisation combinatoire : la théorie des graphes, moyen puissant d'investigation des structures combinatoires et la programmation linéaire, outil de modélisation d'un grand nombre de situations concretes ayant suscité la création d'une technique algorithmique - la méthode du simplexe - d'une grande richesse conceptuelle et d'une extraordinaire efficacité pratique. [...]"
Publisher: Editions Hermann
ISBN:
Category : Algorithms
Languages : fr
Pages : 272
Book Description
"L'optimisation combinatoire traite des problèmes - apparemment dépourvus de mystère - dans lesquels on a à extraire un "meilleur" élément (de coût minimum, par exemple) d'un ensemble fini. Un instant de réflexion montre que la plupart des problèmes concrets d'optimisation appartiennent effectivement à cette classe ou peuvent se formuler de cette manière. Quoique fini, l'ensemble objet de l'étude comporte en général un grand nombre d'éléments (par rapport au nombre de données du problème). C'est ce phénomène qui, en interdisant la solution par énumération de toutes les solutions possibles, rend la problématique de l'optimisation combinatoire non triviale : on est amené à mettre en évidence certaines structures du modèle étudiées et à élaborer différentes méthodes de solution. Cet ouvrage présente l'ensemble de ces techniques très diverses [...]. Ce premier volume es un traité des deux disciplines fondamentales de l'optimisation combinatoire : la théorie des graphes, moyen puissant d'investigation des structures combinatoires et la programmation linéaire, outil de modélisation d'un grand nombre de situations concretes ayant suscité la création d'une technique algorithmique - la méthode du simplexe - d'une grande richesse conceptuelle et d'une extraordinaire efficacité pratique. [...]"
La méthode des résidus conjugués pour calculer les directions en optimisation continue
Author: Marie-Ange Dahito
Publisher:
ISBN:
Category :
Languages : fr
Pages : 91
Book Description
La méthode du gradient conjugué (CG) est une méthode proposée par Hestenes et Stiefel afin de résoudre des systèmes linéaires symétriques et définis positifs. En optimisation non linéaire sans contraintes, on y recourt de manière quasi-systématique pour le calcul des directions. Lorsque la matrice du système n'est pas définie positive, la variante en recherche linéaire proposée par Dembo et Steihaug, et celle de Steihaug en régions de confiance, permettent tout de même d'utiliser CG. La méthode des résidus conjugués (CR) est également proposée par Hestenes et Stiefel pour les cas où la matrice est définie positive. Elle partage avec CG la décroissance monotone du modèle quadratique, ce qui en fait un bon candidat pour les méthodes de région de confiance. De plus, les résidus dans CR décroissent de manière monotone, ce qui est intéressant, en particulier pour les méthodes de type Newton inexact, souvent utilisées en recherche linéaire. Dans cet ouvrage, nous proposons des variantes de CR pour les cas où la matrice n'est pas définie positive et étudions la performance de ces modifications dans des contextes de recherche linéaire et de région de confiance. Pour ce faire, nous comparons la performance de nos algorithmes aux variantes de CG correspondantes. Nous nous intéressons également à CRLS qui est l'équivalent de CR pour les moindres carrés linéaires, et suggérons une modification de cette méthode pour traiter le cas de la courbure nulle. Nos résultats montrent que CR est essentiellement équivalente à CG, et parfois meilleur, notamment pour résoudre les problèmes non convexes. CR présente aussi un léger avantage dans la résolution de problèmes convexes en recherche linéaire. Cette méthode permet souvent d'effectuer moins de produits hessien-vecteur que CG. La résolution des problèmes aux moindres carrés non linéaires montre une équivalence en termes de performance entre LSMR et LSQR qui sont les variantes, construites à partir du processus de Lanczos, de CRLS et CGLS pour résoudre l'équation normale. LSMR montre néanmoins un léger avantage en termes d'évaluation du résidu.
Publisher:
ISBN:
Category :
Languages : fr
Pages : 91
Book Description
La méthode du gradient conjugué (CG) est une méthode proposée par Hestenes et Stiefel afin de résoudre des systèmes linéaires symétriques et définis positifs. En optimisation non linéaire sans contraintes, on y recourt de manière quasi-systématique pour le calcul des directions. Lorsque la matrice du système n'est pas définie positive, la variante en recherche linéaire proposée par Dembo et Steihaug, et celle de Steihaug en régions de confiance, permettent tout de même d'utiliser CG. La méthode des résidus conjugués (CR) est également proposée par Hestenes et Stiefel pour les cas où la matrice est définie positive. Elle partage avec CG la décroissance monotone du modèle quadratique, ce qui en fait un bon candidat pour les méthodes de région de confiance. De plus, les résidus dans CR décroissent de manière monotone, ce qui est intéressant, en particulier pour les méthodes de type Newton inexact, souvent utilisées en recherche linéaire. Dans cet ouvrage, nous proposons des variantes de CR pour les cas où la matrice n'est pas définie positive et étudions la performance de ces modifications dans des contextes de recherche linéaire et de région de confiance. Pour ce faire, nous comparons la performance de nos algorithmes aux variantes de CG correspondantes. Nous nous intéressons également à CRLS qui est l'équivalent de CR pour les moindres carrés linéaires, et suggérons une modification de cette méthode pour traiter le cas de la courbure nulle. Nos résultats montrent que CR est essentiellement équivalente à CG, et parfois meilleur, notamment pour résoudre les problèmes non convexes. CR présente aussi un léger avantage dans la résolution de problèmes convexes en recherche linéaire. Cette méthode permet souvent d'effectuer moins de produits hessien-vecteur que CG. La résolution des problèmes aux moindres carrés non linéaires montre une équivalence en termes de performance entre LSMR et LSQR qui sont les variantes, construites à partir du processus de Lanczos, de CRLS et CGLS pour résoudre l'équation normale. LSMR montre néanmoins un léger avantage en termes d'évaluation du résidu.