Parallélisation d'algorithmes d'optimisation pour des problèmes de conception optimale

Parallélisation d'algorithmes d'optimisation pour des problèmes de conception optimale PDF Author: Michel Dayde
Publisher:
ISBN:
Category :
Languages : fr
Pages : 442

Get Book Here

Book Description
DEUX APPROCHES ONT ETE ENVISAGEES: UNE METHODE DE PENALITE PERMETTANT DE TRAITER UNE LARGE CLASSE DE PROBLEMES DE PROGRAMMATION MATHEMATIQUE NON-LINEAIRE, ET UNE METHODE DE DUALITE BIEN ADAPTEE A LA STRUCTURE DES PROBLEMES CONSIDERES. LA STRATEGIE DE PARALLELISATION A CONSISTE A ADAPTER A CES METHODES DEUX ALGORITHMES PARALLELES PROPOSES A L'ORIGINE POUR LA RESOLUTION DE PROBLEMES SANS CONTRAINTES: L'ALGORITHME DE METRIQUE VARIABLE PARALLELE ET L'ALGORITHME DE JACOBSON-OKSMAN PARALLELE

Parallélisation d'algorithmes d'optimisation pour des problèmes de conception optimale

Parallélisation d'algorithmes d'optimisation pour des problèmes de conception optimale PDF Author: Michel Dayde
Publisher:
ISBN:
Category :
Languages : fr
Pages : 442

Get Book Here

Book Description
DEUX APPROCHES ONT ETE ENVISAGEES: UNE METHODE DE PENALITE PERMETTANT DE TRAITER UNE LARGE CLASSE DE PROBLEMES DE PROGRAMMATION MATHEMATIQUE NON-LINEAIRE, ET UNE METHODE DE DUALITE BIEN ADAPTEE A LA STRUCTURE DES PROBLEMES CONSIDERES. LA STRATEGIE DE PARALLELISATION A CONSISTE A ADAPTER A CES METHODES DEUX ALGORITHMES PARALLELES PROPOSES A L'ORIGINE POUR LA RESOLUTION DE PROBLEMES SANS CONTRAINTES: L'ALGORITHME DE METRIQUE VARIABLE PARALLELE ET L'ALGORITHME DE JACOBSON-OKSMAN PARALLELE

OPTIMISATION DISCRETE ET PARALLELISME

OPTIMISATION DISCRETE ET PARALLELISME PDF Author: STEFAN.. BALEV
Publisher:
ISBN:
Category :
Languages : en
Pages : 142

Get Book Here

Book Description
L'OPTIMISATION DISCRETE EST LE NOYAU FEDERATEUR DE LA THESE. POUR RESOUDRE LES PROBLEMES NP-COMPLETS DU DOMAINE, LES TROIS DIRECTIONS SUIVANTES SONT EXPLOREES : (I) LA CONCEPTION D'ALGORITHMES EFFICACES PAR LA VOIE D'HYBRIDATION DES TECHNIQUES CLASSIQUES DE RESOLUTION, AINSI QUE PAR L'EXPLOITATION DES PROPRIETES FONDAMENTALES DU PROBLEME ; (II) L'ELABORATION DE METHODES HEURISTIQUES POUR TRAITER DES INSTANCES INACCESSIBLES PAR LES METHODES EXACTES ; (III) L'UTILISATION PERFORMANTE DU PARALLELISME POUR LA RESOLUTION DES PROBLEMES COMBINATOIRES. L'APPLICATION D'OPTIMISATION DISCRETE DANS LE PARALLELISME EST AUSSI ABORDEE DANS LA THESE. LA PARALLELISATION EFFICACE D'UN ALGORITHME ENGENDRE DE NOMBREUX PROBLEMES D'OPTIMISATION DISCRETE, LIES A L'EQUILIBRAGE DE CHARGE ENTRE PROCESSEURS, A LA GRANULARITE OPTIMALE DU CALCUL ET A LA REDUCTION DU SURCOUT DE COMMUNICATION. THEMES PRINCIPAUX : (I) PROBLEME DE CLASSIFICATION (PROBLEME D'ANALYSE DISCRIMINANTE LINEAIRE) - CONCEPTION D'ALGORITHMES EFFICACES SEQUENTIELS ET PARALLELES ; (II) PROBLEME DE SAC-A-DOS MULTIDIMENSIONNEL EN VARIABLES 0-1 - HYBRIDATION DE PROGRAMMATION DYNAMIQUE ET UN SYSTEME DE BORNES ; (III) ORDONNANCEMENT DE SYSTEMES D'EQUATIONS RECURRENTES AFFINES - UTILISATION DE PROGRAMMATION LINEAIRE ET COMPARAISON DES METHODES DIFFERENTES ; (IV) PROBLEME DE PAVAGE OPTIMAL DE L'ESPACE D'ITERATIONS POUR PARALLELISATION DE NIDS DE BOUCLES - DETERMINATION DE PARAMETRES OPTIMAUX DU PAVAGE ET APPLICATION DE L'APPROCHE POUR COMPARAISON DE SEQUENCES GENOMIQUES.

ETUDE ET CONCEPTION D'ALGORITHMES PARALLELES D'OPTIMISATION COMBINATOIRE DISCRETE

ETUDE ET CONCEPTION D'ALGORITHMES PARALLELES D'OPTIMISATION COMBINATOIRE DISCRETE PDF Author: DOMINIQUE.. DELAMARRE
Publisher:
ISBN:
Category :
Languages : fr
Pages : 164

Get Book Here

Book Description
LES METAHEURISTIQUES DE TYPE RECUIT SIMULE OU METHODE TABOU SONT DES OUTILS PUISSANTS ET RECONNUS POUR OBTENIR DES SOLUTIONS APPROCHEES AUX PROBLEMES D'OPTIMISATION COMBINATOIRE DE GRANDE TAILLE. SI ELLES SONT RELATIVEMENT FACILES A METTRE EN UVRE, ELLES NECESSITENT UN CERTAIN SAVOIR-FAIRE POUR REGLER LES DIFFERENTS PARAMETRES AFIN D'AJUSTER LEUR CONVERGENCE ET, PAR LA MEME, ACCELERER L'OBTENTION D'UNE BONNE SOLUTION. PLUSIEURS PARALLELISATIONS ONT DEJA ETE PROPOSEES POUR AMELIORER LEUR RAPIDITE MAIS, POUR CHAQUE PROBLEME A RESOUDRE, SE POSENT A NOUVEAU LES QUESTIONS: QUELLE HEURISTIQUE CHOISIR ? QUELLE STRATEGIE DE PARALLELISATION ? DE PLUS, IL EST NECESSAIRE D'ECRIRE UN NOUVEAU PROGRAMME POUR CHAQUE NOUVELLE IMPLANTATION SUR UNE MACHINE PARALLELE. FACE A CES DIFFICULTES, NOTRE APPROCHE CONSISTE EN LA CONCEPTION D'UNE BIBLIOTHEQUE DE FONCTIONS PARALLELES (LOREST), PERMETTANT D'EXPERIMENTER PLUSIEURS PARALLELISATIONS DES METAHEURISTIQUES A PARTIR D'UN MEME PROGRAMME SEQUENTIEL. LA BIBLIOTHEQUE LOREST PRESENTE UNE ARCHITECTURE EN COUCHES. ELLE PERMET UNE IMPLANTATION INDEPENDANTE DE LA MACHINE CIBLE ET CONSTITUE, POUR L'ESSENTIEL, UNE MACHINE VIRTUELLE DE COMMUNICATION. NOUS PRESENTONS DEUX IMPLANTATIONS DE LOREST REALISEES, L'UNE SUR UNE MACHINE TNODE DE TELMAT EQUIPEE DE 16 TRANSPUTERS ET, L'AUTRE, SUR UN RESEAU DE STATIONS DE TRAVAIL, AU DESSUS DE LA BIBLIOTHEQUE DE COMMUNICATION PARALLEL VIRTUAL MACHINE (PVM). LE TRAVAIL EXPERIMENTAL A CONSISTE A TESTER DIFFERENTES STRATEGIES DE PARALLELISATION SUR DEUX PROBLEMES CLASSIQUES (AFFECTATION QUADRATIQUE ET VOYAGEUR DE COMMERCE), AINSI QUE SUR UN PROBLEME DE RECHERCHE DE CHEMIN HAMILTONIEN DANS LES GRAPHES CUBIQUES. CE DERNIER TRAVAIL A DONNE LIEU A LA MISE AU POINT D'UNE METHODE DE DISTORSION DE LA FONCTION DE COUT TELLE QUE LA MOYENNE DES SAUTS D'ENERGIE RESTE APPROXIMATIVEMENT CONSTANTE AU COURS DU CALCUL. CETTE METHODE S'EST AVEREE TRES EFFICACE AVEC LE RECUIT SIMULE

Conception et analyse d’algorithmes parallèles en temps pour l’accélération de simulations numériques d’équations d’évolution

Conception et analyse d’algorithmes parallèles en temps pour l’accélération de simulations numériques d’équations d’évolution PDF Author: Mohamed Kamel Riahi
Publisher:
ISBN:
Category :
Languages : fr
Pages : 113

Get Book Here

Book Description
Cette thèse présente des algorithmes permettant la parallélisation dans la direction temporelle de la simulation de systèmes régis par des équations aux dérivées partielles. Elle traite principalement des problèmes de parallélisation en temps issus de trois domaines d’application différents proposant des modèles très complexes : Nous avons développé deux algorithmes parallèles que nous avons appelés SITPOC et SITPOC. Ces deux algorithmes sont basés sur une méthode générale de décomposition en temps des problèmes de contrôle optimal. Un résultat de convergence est obtenu pour l’algorithme SITPOC. Nous avons également présenté des interprétations matricielles de ces algorithmes. Les perspectives liées à ce travail concernent l’étude de stabilité des algorithmes ainsi que leur accélération, notamment via l’utilisation d’autres procédures d’optimisation locales. Dans un premier temps, ce travail à consisté à étudier un modèle statique de la cinétique neutronique. Cette étape est fondamentale pour la production du flux propre constituant la condition initiale de la cinétique. Par la suite, nous avons conçu un solveur en temps regroupant toutes les variables neutroniques (deux groupes de flux neutronique et six groupes de concentrations de précurseurs) et adapté aux différents scénarios possibles réduisant la physique. Les résultats de ce solveur sont comparables à ceux obtenus par le code MINOS du CEA. Par conséquent, après validation du solveur séquentiel, nous avons conçu un schéma pararéel pour la résolution en temps. Nous avons finalement considéré plusieurs modèles physiques de la cinétique des neutrons que nous avons couplés avec l’algorithme pararéel en temps dans lequel le solveur grossier utilisé à été simulé avec une réduction du modèle physique. Cette réduction a été bénéfique puisqu’elle a permis une accélération importante du traitement en temps machine. Ce chapitre présente un travail d'ouverture sur une méthode parallèle en temps de résolution d'un problème de contrôle optimal en résonance magnétique nucléaire.Notre méthode produit une accélération importante par rapport à l'algorithme de référence non parallèle. De plus, les champs de contrôle produits par parallélisation sont lisses du point de vue fréquentiel ce qui permet une mise en œuvre expérimentale plus simple dans les instruments.Les tests numériques ont prouvé l’efficacité des méthodes numériques employées.Sur des exemples académiques et sans faire usage de techniques de programmation avancées, nous avons obtenu des accélérations de résolution significatives.

CONTRIBUTION A L'ETUDE D'ALGORITHMES PARALLELES POUR DES PROBLEMES D'OPTIMISATION DE TYPE FLOT DANS LES RESEAUX

CONTRIBUTION A L'ETUDE D'ALGORITHMES PARALLELES POUR DES PROBLEMES D'OPTIMISATION DE TYPE FLOT DANS LES RESEAUX PDF Author: DIDIER.. GAZEN
Publisher:
ISBN:
Category :
Languages : fr
Pages : 151

Get Book Here

Book Description
LE TRAVAIL DE CETTE THESE PORTE SUR LA CONCEPTION D'ALGORITHMES PARALLELES POUR LA RESOLUTION DE DEUX CLASSES DE PROBLEMES D'OPTIMISATION DANS LES GRAPHES : LES PROBLEMES DE FLOT DE COUT MINIMUM A CRITERE CONVEXE ET LES PROBLEMES DE TYPE FLOT MAXIMUM/COUPE MINIMALE. IL CONCERNE EGALEMENT LA MISE EN UVRE DE CES ALGORITHMES SUR DES MACHINES PARALLELES A MEMOIRE DISTRIBUEE ET A MEMOIRE PARTAGEE. DANS LA PREMIERE PARTIE DU DOCUMENT, NOUS NOUS INTERESSONS AU PROBLEME DE FLOT DE COUT MINIMUM A CRITERE CONVEXE. LES METHODES DE GRADIENT ET DE RELAXATION PERMETTANT DE RESOUDRE CETTE CLASSE DE PROBLEME SONT PERFORMANTES ET BIEN ADAPTEES A UNE MISE EN UVRE PARALLELE. NOUS NOUS CONCENTRONS PRINCIPALEMENT SUR LES METHODES ITERATIVES PARALLELES DEPOURVUES D'UN CONTROLE DES ITERATIONS, APPELEES ITERATIONS ASYNCHRONES. APRES UN RAPPEL DE LEUR FORMULATION ET DE RESULTATS DE CONVERGENCE, NOUS PRESENTONS UNE EXTENSION OFFRANT UNE PLUS GRANDE SOUPLESSE DANS LA COMMUNICATION DES ITERES PARTIELS ENTRE LES PROCESSEURS : LES ITERATIONS ASYNCHRONES AVEC COMMUNICATION FLEXIBLE. NOUS VALIDONS CETTE NOUVELLE APPROCHE PAR L'EXPERIMENTATION SUR DEUX ARCHITECTURES PARALLELES : LE T-NODE (MEMOIRE DISTRIBUEE) AINSI QU'UN MULTIPROCESSEUR SUN SMP (MEMOIRE PARTAGEE). LA SECONDE PARTIE DU MEMOIRE EST CONSACREE AU PROBLEME DE FLOT MAXIMUM/COUPE MINIMALE, QUI EST UN CAS PARTICULIER DU PROBLEME DE FLOT DE COUT MINIMUM A CRITERE LINEAIRE. DANS UN PREMIER TEMPS, NOUS PRESENTONS LE PROBLEME AINSI QUE LES DEUX PRINCIPALES CLASSES D'ALGORITHMES SEQUENTIELS PERMETTANT DE LE RESOUDRE : LES ALGORITHMES BASES SUR UNE CHAINE AMELIORANTE ET CEUX BASES SUR LA NOTION DE PREFLOT. DANS UN SECOND TEMPS, NOUS COMPARONS LES PERFORMANCES DE CES ALGORITHMES POUR DES PROBLEMES DE TOPOLOGIE DIFFERENTE A PARTIR D'EXPERIMENTATIONS NUMERIQUES. NOUS PROPOSONS ENFIN UNE STRATEGIE DE PARALLELISATION DU PREFLOT PAR L'UTILISATION DE THREADS SUR ARCHITECTURE FAIBLEMENT PARALLELE.

Parallélisation d'un algorithme d'optimisation par colonies de fourmis pour la résolution d'un problème d'ordonnancement industriel

Parallélisation d'un algorithme d'optimisation par colonies de fourmis pour la résolution d'un problème d'ordonnancement industriel PDF Author: Pierre Delisle
Publisher:
ISBN: 9781412309981
Category : Metaheuristic
Languages : fr
Pages : 280

Get Book Here

Book Description


Algorithmes d'optimisation en grande dimension

Algorithmes d'optimisation en grande dimension PDF Author: Audrey Repetti
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.

Etude et parallélisation de méthodes d'optimisation directes

Etude et parallélisation de méthodes d'optimisation directes PDF Author: Frédéric Lacassagne
Publisher:
ISBN:
Category :
Languages : fr
Pages : 390

Get Book Here

Book Description
LE TRAVAIL DEVELOPPE DANS CETTE THESE CONCERNE LA REDUCTION DE LA COMPLEXITE EN TEMPS DE METHODES D'OPTIMISATION DIRECTES. NOUS AVONS RETENU DEUX METHODES QUI N'UTILISENT AUCUNE INFORMATION VARIATIONNELLE MAIS SIMPLEMENT LA VALEUR DE LA FONCTION EN DES POINTS PARTICULIERS: LA METHODE DU SIMPLEXE DE NELDER-MEAD ET LA PROGRAMMATION DYNAMIQUE. MALGRE LEURS AVANTAGES, LEUR APPLICATION EST LIMITEE PAR LA DIMENSION DES PROBLEMES ET PAR L'ESPACE MEMOIRE NECESSAIRE. LES APPROCHES DEVELOPPEES PORTENT SUR DES AMELIORATIONS ALGORITHMIQUES ET SUR LA CONCEPTION D'ALGORITHMES PARALLELES SUR DES ARCHITECTURES MIMD A MEMOIRE PARTAGEE: LE CRAY C98 ET A MEMOIRE DISTRIBUEE: UN RESEAU LOCAL DE STATIONS ET L'ENVIRONNEMENT LANDA. DANS UN PREMIER TEMPS NOTRE TRAVAIL A PORTE SUR LA GENERALISATION DE L'ALGORITHME DU SIMPLEXE. POUR CELA, APRES AVOIR ANALYSE LES PROPRIETES D'UN SIMPLEXE, NOUS AVONS ELABORE TROIS CLASSES D'ALGORITHMES DONT LE PRINCIPE COMMUN REPOSE SUR LA MULTIPLICATION DES DIRECTIONS DE RECHERCHE. DANS UN SECOND TEMPS, NOUS AVONS ETUDIE LA PARALLELISATION DE CET ALGORITHME. L'IDEE DE BASE CONSISTE A EFFECTUER UNE ANTICIPATION DES OPERATIONS DANS L'ORDRE OU ELLES POURRAIENT APPARAITRE. LA MODELISATION DES PERFORMANCES DE CETTE STRATEGIE A PERMIS D'ESTIMER DE MANIERE PRECISE LES ACCELERATIONS ENVISAGEABLES. EN CE QUI CONCERNE LA PROGRAMMATION DYNAMIQUE NOUS AVONS DEVELOPPE UNE APPROCHE NUMERIQUE VECTORIELLE ET PARALLELE POUR LA RESOLUTION DE PROBLEMES DE COMMANDE OPTIMALE DETERMINISTES OU STOCHASTIQUES, EN HORIZON FINI OU INFINI, CONTRAINTS SUR L'ETAT ET/OU LA COMMANDE. LES STRATEGIES DE PARALLELISATION ADOPTEES SONT BASEES SUR LA VECTORISATION DES CALCULS, LE PARTIONNEMENT DES DOMAINES, ET LA RELAXATION DU SYNCHRONISME

Application des algorithmes évolutionnistes dans les problèmes d'optimisation en ordonnancement de la production

Application des algorithmes évolutionnistes dans les problèmes d'optimisation en ordonnancement de la production PDF Author: Khaled Mesghouni
Publisher:
ISBN:
Category :
Languages : fr
Pages : 125

Get Book Here

Book Description
Le problème d'ordonnancement des ateliers constitue sûrement pour les entreprises une des difficultés importantes de leur système de gestion et de conduite. En effet, c'est à ce niveau que doivent être prises en compte les caractéristiques réelles multiples et complexes des ateliers. Nous nous intéresserons dans ce travail aux problèmes d'ordonnancement de type job-shop flexible, ce sont des problèmes extrêmement difficiles à résoudre, ils appartiennent à la classe dite NP difficile, ils demandent un espace de recherche combinatoire et un traitement particulièrement complexe. Les méthodes exactes demandent un temps d'exécution considérable et/ou des formulations mathématiques complexes, particulièrement quand la taille du problème est importante. Toutefois, il existe des méthodes dites stochastiques telles que les algorithmes évolutionnistes qui donnent des résultats très proches de l'optimum. Nous proposons deux approches évolutionnistes originales pour résoudre les problèmes du type job-shop flexible. Ces derniers sont sujets à des contraintes diverses qu'il faut absolument respecter pour aboutir à une solution réalisable. La première approche est basée sur le premier codage dit codage parallèle des machines, le chromosome ainsi représente donne une information visible de la charge des machines et de la répartition des opérations sur ces dernières ce qui permet une utilisation efficace du parc de machines. L'utilisation des algorithmes à stratégie d'évolution passe par la mise au point d'une population de démarrage dite population initiale. Vu que cette population conditionne la convergence de notre algorithme, nous avons utilisé un processus hybride utilisant les différentes méthodes classiques pour générer une bonne première population. Dans la deuxième approche, nous proposons un deuxième codage qui intègre la majorité des contraintes du problème d'ordonnancement dans la conception même du chromosome, ceci nous permet de construire des opérateurs de croisement et du mutation sans avoir à intégrer des processus de corrections qui alourdiraient le temps de calcul. Les résultats des simulations que nous avons effectuées montrent bien la validité de nos approches, ainsi que leurs capacités à donner un ensemble de solutions réalisables et proches de l'optimum en un temps très court.

Exploration des méthodes d'optimisation pour déterminer la topologie et la forme de renforts de plaque

Exploration des méthodes d'optimisation pour déterminer la topologie et la forme de renforts de plaque PDF Author: Patricia Lyaet
Publisher:
ISBN:
Category :
Languages : fr
Pages : 180

Get Book Here

Book Description
Ce travail est consacre au choix d'une méthode d'optimisation et plus particulièrement d'une classe d'algorithmes (continu, discret) sur le thème de la distribution et de la détermination de forme de raidisseurs sur une plaque. Pour cela, nous présentons différentes méthodes d'optimisation, basées sur des algorithmes de minimisation ou des techniques pseudo-aléatoires, en distinguant principalement celles qui permettent de déterminer un profil optimal (soit une topologie), telles que l'optimisation génétique, et celles qui optimisent la géométrie (ou les grandeurs mécaniques) d'une structure a topologie fixe. Nous étudierons alors les possibilités offertes par l'optimisation continue, puis nous examinerons les possibilités offertes par les algorithmes génétiques pour déterminer une topologie optimale. Enfin, nous envisagerons différentes modifications des operateurs génétiques pour améliorer les performances de l'algorithme, conformément à une application en mécanique, par des méthodes de calcul (méthode de décomposition en sous-domaines) ou des moyens techniques (stockage creux, parallélisme) pour pallier le problème du temps de calcul. Nous présenterons ainsi un nouvel algorithme génétique combinant le principe d'optimisation avec une méthode de résolution par décomposition de domaines pour permettre de résoudre des problèmes mécaniques importants, bases sur un calcul éléments finis. Nous aborderons ensuite les développements informatiques de l'algorithme génétique (2 optimiseurs ont été intègre au logiciel de calcul sic. Système interactif de conception), et les différents codages propres a représenter une structure raidie. Nous validerons cet algorithme sur un problème classique de l'optimisation continue: la répartition de masse a volume constant (qui suppose que le renfort soit une surépaisseur). Nous présenterons alors une nouvelle approche de l'optimisation génétique avec le couplage d'une interface et du logiciel de calcul sic, ou l'optimiseur est indépendant du logiciel de calcul, et communique en utilisant la bibliothèque d'échange de messages p.v.m. (parallèle Virtual machine). Plusieurs exemples d'application génétique pour la distribution de nervures et de renforts sur une poutre et sur une plaque sont présents.