Développement d'une méthodologie de traitement et de fusion d'informations multi-sources et multi-outils

Développement d'une méthodologie de traitement et de fusion d'informations multi-sources et multi-outils PDF Author: Mike Bargain
Publisher:
ISBN:
Category :
Languages : fr
Pages : 330

Get Book Here

Book Description
LES BESOINS CROISSANTS EN MATIERE D'INFORMATION A CARACTERE DECISIONNEL ONT GENERE LE DEVELOPPEMENT DE NOUVELLES METHODOLOGIES DE TRAITEMENT ET D'ANALYSE. L'OBJET DE CES TRAVAUX DE THESE PORTE SUR LA DEFINITION DE METHODOLOGIES DE TRAITEMENT ET D'ANALYSE APPLIQUEES A UN CAS CONCRET SCIENTIFIQUE, TECHNIQUE ET INDUSTRIEL DANS UN CONTEXTE OPERATIONNEL. DES CONTRAINTES LIEES AUX NOUVEAUX TRAITS CARACTERISTIQUES DE L'INFORMATION IMPOSENT D'UNE PART D'INTEGRER DE FACON COMPLEMENTAIRE DES OUTILS DE RECHERCHE ET DE TRAITEMENT STATISTIQUES ET SEMANTIQUES EVOLUTIFS ET D'AUTRE PART DE METTRE EN PLACE DES PROCEDURES PERMETTANT DE PREJUGER DE LA QUALITE DE LA MATIERE PREMIERE SERVANT DE BASE AU TRAITEMENT ET A L'ANALYSE. CETTE SECONDE CONTRAINTE EST EN PARTICULIER LIEE A LA DIFFUSION PLANETAIRE DE TOUT TYPE D'INFORMATION SANS REELLE VALIDATION. UNE PARTIE IMPORTANTE A DONC ETE CONSACREE A PROPOSER DES SOLUTIONS NOUVELLES PERMETTANT DE CONDUIRE CETTE OPERATION DE VALIDATION DES INFORMATIONS A TRAVERS L'ANALYSE DE LEUR ORIGINE. CELLE-CI DOIT ETRE REALISEE A PLUSIEURS NIVEAUX. CETTE OPERATION D'AIDE A LA VALIDATION A ETE PARTIELLEMENT AUTOMATISEE ET INTEGREE DANS UN DEMONSTRATEUR QUI RASSEMBLE L'ENSEMBLE DES ELEMENTS CONSTITUTIFS D'UNE STATION D'ANALYSE A VOCATION DECISIONNELLE. L'ENSEMBLE DE CES TRAVAUX DOIT PERMETTRE DE MONTRER L'INTERET D'INTEGRER LES RESULTATS PONDERES ISSUS DE DIFFERENTS ANALYSEURS D'INFORMATIONS, DANS LE BUT DE PRODUIRE UN RENSEIGNEMENT FIABLE, PREFIGURANT LA MISE EN PLACE DE SYSTEMES PLUS EVOLUES A CONNOTATION PREDICTIVE

Développement d'une méthodologie de traitement et de fusion d'informations multi-sources et multi-outils

Développement d'une méthodologie de traitement et de fusion d'informations multi-sources et multi-outils PDF Author: Mike Bargain
Publisher:
ISBN:
Category :
Languages : fr
Pages : 330

Get Book Here

Book Description
LES BESOINS CROISSANTS EN MATIERE D'INFORMATION A CARACTERE DECISIONNEL ONT GENERE LE DEVELOPPEMENT DE NOUVELLES METHODOLOGIES DE TRAITEMENT ET D'ANALYSE. L'OBJET DE CES TRAVAUX DE THESE PORTE SUR LA DEFINITION DE METHODOLOGIES DE TRAITEMENT ET D'ANALYSE APPLIQUEES A UN CAS CONCRET SCIENTIFIQUE, TECHNIQUE ET INDUSTRIEL DANS UN CONTEXTE OPERATIONNEL. DES CONTRAINTES LIEES AUX NOUVEAUX TRAITS CARACTERISTIQUES DE L'INFORMATION IMPOSENT D'UNE PART D'INTEGRER DE FACON COMPLEMENTAIRE DES OUTILS DE RECHERCHE ET DE TRAITEMENT STATISTIQUES ET SEMANTIQUES EVOLUTIFS ET D'AUTRE PART DE METTRE EN PLACE DES PROCEDURES PERMETTANT DE PREJUGER DE LA QUALITE DE LA MATIERE PREMIERE SERVANT DE BASE AU TRAITEMENT ET A L'ANALYSE. CETTE SECONDE CONTRAINTE EST EN PARTICULIER LIEE A LA DIFFUSION PLANETAIRE DE TOUT TYPE D'INFORMATION SANS REELLE VALIDATION. UNE PARTIE IMPORTANTE A DONC ETE CONSACREE A PROPOSER DES SOLUTIONS NOUVELLES PERMETTANT DE CONDUIRE CETTE OPERATION DE VALIDATION DES INFORMATIONS A TRAVERS L'ANALYSE DE LEUR ORIGINE. CELLE-CI DOIT ETRE REALISEE A PLUSIEURS NIVEAUX. CETTE OPERATION D'AIDE A LA VALIDATION A ETE PARTIELLEMENT AUTOMATISEE ET INTEGREE DANS UN DEMONSTRATEUR QUI RASSEMBLE L'ENSEMBLE DES ELEMENTS CONSTITUTIFS D'UNE STATION D'ANALYSE A VOCATION DECISIONNELLE. L'ENSEMBLE DE CES TRAVAUX DOIT PERMETTRE DE MONTRER L'INTERET D'INTEGRER LES RESULTATS PONDERES ISSUS DE DIFFERENTS ANALYSEURS D'INFORMATIONS, DANS LE BUT DE PRODUIRE UN RENSEIGNEMENT FIABLE, PREFIGURANT LA MISE EN PLACE DE SYSTEMES PLUS EVOLUES A CONNOTATION PREDICTIVE

Amélioration du processus de fusion d'informations dans le cadre de la théorie des possibilités

Amélioration du processus de fusion d'informations dans le cadre de la théorie des possibilités PDF Author: Gilles Zunino
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
La fusion de données est une technique de traitement de l'information qui combine plusieurs données dans le but d'obtenir un jugement plus fondé que celui obtenu en considérant chaque information isolement. Ce mémoire s'intéresse à la combinaison de données représentés par des distributions de possibilités. La fusion de données peut servir deux causes bien distinctes. Le but de la première est d'utiliser la redondance de sources différentes pour obtenir une information plus fiable. Dans la seconde, une information a priori existe et doit être affinée à la lumière d'une nouvelle évidence. L'objectif de cette thèse est de faire la synthèse des différentes approches, de proposer de nouveaux opérateurs de fusion, d'étudier l'implantation des algorithmes sur un calculateur, de créer un guide facilitant le choix de l'opérateur en fonction de l'application et de suggérer une méthode d'évaluation des opérateurs de fusion. Le premier chapitre présente les opérateurs de fusion simples. Le deuxième chapitre aborde les opérateurs dit adaptatifs qui tentent automatiquement de déterminer le mode de combinaison adéquat. Le troisième chapitre aborde le cas de la fusion de plus de deux sources. Le quatrième chapitre s'intéresse aux opérateurs de fusion construits à l'aide du principe d'extension de Zadeh et aux intégrales floues. Le cinquième chapitre présente les opérateurs de fusion dissymétriques spécialement conçus pour combiner des sources non complémentaires. Le sixième chapitre aborde les aspects pratiques de l'implantation d'un système de fusion de distributions de possibilité sur un calculateur. Le septième chapitre propose quelques techniques de mesure du gain introduit lors d'une opération de fusion et une méthode de choix de l'opérateur de fusion en fonction de l'application.

Multi-sensor Multi-target Data Fusion, Tracking and Identification Techniques for Guidance and Control Applications

Multi-sensor Multi-target Data Fusion, Tracking and Identification Techniques for Guidance and Control Applications PDF Author:
Publisher:
ISBN:
Category : Guided missiles
Languages : en
Pages : 312

Get Book Here

Book Description
Resumé på fransk.

Évaluation de performance d'un système de fusion d'informations

Évaluation de performance d'un système de fusion d'informations PDF Author: Abdellah Lamallem
Publisher:
ISBN:
Category :
Languages : fr
Pages :

Get Book Here

Book Description
Les systèmes de fusion d'informations sont principalement composés, d'outils mathématiques permettant de réaliser la représentation et la combinaison des données. L'objectif de ces systèmes peut s'exprimer comme un problème de décision sur la vérité ou la vraisemblance d'une proposition étant donné une ou plusieurs informations issues de différentes sources. Les systèmes de fusion cherchent à exploiter au mieux les propriétés des sources de données en tenant compte de l'imperfection de l'information (imprécis, incomplet, ambigu, incertain, etc.) ainsi que l'aspect redondant, complémentaire et conflictuel des informations. Le système de fusion concerné par cette thèse a la capacité d'intégrer dans ses traitements de la connaissance experte. On le nomme système de fusion coopératif. Puisque ce système cherche à intégrer pleinement les experts dans son fonctionnement, il est important de mettre à disposition des utilisateurs des informations aidant à mieux comprendre la fusion réalisée. De tels systèmes disposent de nombreux paramètres à régler et ces derniers ont un impact important sur la qualité des résultats obtenus. Une des grandes problématiques liées à ces systèmes de fusion d'informations porte sur l'évaluation de leurs performances. L'évaluation doit permettre d'améliorer la qualité de la fusion, d'améliorer l'interaction expert/système et d'aider à mieux ajuster les paramètres du système. En général, l'évaluation de tels systèmes est réalisée en fin de chaîne par une évaluation globale du résultat. Mais, celle-ci ne permet pas de savoir précisément l'endroit de la chaîne qui nécessite une intervention. Une autre difficulté réside dans le fait qu'une vérité terrain complète sur le résultat n'est pas toujours disponible, ce qui complique la tâche d'évaluation de performances de ce type de systèmes. Le contexte applicatif de ce travail est l'interprétation d'images tridimensionnelles (images tomographiques, images sismiques, images synthétiques, ...). Dans ce contexte une évaluation locale des systèmes de fusion d'informations, a été mise en place. L'approche a montré son intérêt dans l'ajustement efficace des paramètres et dans la coopération avec l'expert.

Fusion d'informations par la théorie de l'évidence pour la segmentation d'images

Fusion d'informations par la théorie de l'évidence pour la segmentation d'images PDF Author: Chaza Chahine
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
La fusion d'informations a été largement étudiée dans le domaine de l'intelligence artificielle. Une information est en général considérée comme imparfaite. Par conséquent, la combinaison de plusieurs sources d'informations (éventuellement hétérogènes) peut conduire à une information plus globale et complète. Dans le domaine de la fusion on distingue généralement les approches probabilistes et non probabilistes dont fait partie la théorie de l'évidence, développée dans les années 70. Cette méthode permet de représenter à la fois, l'incertitude et l'imprécision de l'information, par l'attribution de fonctions de masses qui s'appliquent non pas à une seule hypothèse (ce qui est le cas le plus courant pour les méthodes probabilistes) mais à un ensemble d'hypothèses. Les travaux présentés dans cette thèse concernent la fusion d'informations pour la segmentation d'images.Pour développer cette méthode nous sommes partis de l'algorithme de la « Ligne de Partage des Eaux » (LPE) qui est un des plus utilisés en détection de contours. Intuitivement le principe de la LPE est de considérer l'image comme un relief topographique où la hauteur d'un point correspond à son niveau de gris. On suppose alors que ce relief se remplit d'eau par des sources placées au niveau des minima locaux de l'image, formant ainsi des bassins versants. Les LPE sont alors les barrages construits pour empêcher les eaux provenant de différents bassins de se mélanger. Un problème de cette méthode de détection de contours est que la LPE directement appliquée sur l'image engendre une sur-segmentation, car chaque minimum local engendre une région. Meyer et Beucher ont proposé de résoudre cette question en spécifiant un ensemble de marqueurs qui seront les seules sources d'inondation du relief. L'extraction automatique des marqueurs à partir des images ne conduit pas toujours à un résultat satisfaisant, en particulier dans le cas d'images complexes. Plusieurs méthodes ont été proposées pour déterminer automatiquement ces marqueurs.Nous nous sommes en particulier intéressés à l'approche stochastique d'Angulo et Jeulin qui estiment une fonction de densité de probabilité (fdp) d'un contour (LPE) après M simulations de la segmentation LPE classique. N marqueurs sont choisis aléatoirement pour chaque réalisation. Par conséquent, une valeur de fdp élevée est attribuée aux points de contours correspondant aux fortes réalisations. Mais la décision d'appartenance d'un point à la « classe contour » reste dépendante d'une valeur de seuil. Un résultat unique ne peut donc être obtenu.Pour augmenter la robustesse de cette méthode et l'unicité de sa réponse, nous proposons de combiner des informations grâce à la théorie de l'évidence.La LPE se calcule généralement à partir de l'image gradient, dérivée du premier ordre, qui donne une information globale sur les contours dans l'image. Alors que la matrice Hessienne, matrice des dérivées d'ordre secondaire, donne une information plus locale sur les contours. Notre objectif est donc de combiner ces deux informations de nature complémentaire en utilisant la théorie de l'évidence. Les différentes versions de la fusion sont testées sur des images réelles de la base de données Berkeley. Les résultats sont comparés avec cinq segmentations manuelles fournies, en tant que vérités terrain, avec cette base de données. La qualité des segmentations obtenues par nos méthodes sont fondées sur différentes mesures: l'uniformité, la précision, l'exactitude, la spécificité, la sensibilité ainsi que la distance métrique de Hausdorff.

Système de recherche d'information étendue basé sur une projection multi-espaces

Système de recherche d'information étendue basé sur une projection multi-espaces PDF Author: Amel Hannech
Publisher:
ISBN:
Category :
Languages : fr
Pages :

Get Book Here

Book Description
Depuis son apparition au début des années 90, le World Wide Web (WWW ou Web) a offert un accès universel aux connaissances et le monde de l'information a été principalement témoin d'une grande révolution (la révolution numérique). Il est devenu rapidement très populaire, ce qui a fait de lui la plus grande et vaste base de données et de connaissances existantes grâce à la quantité et la diversité des données qu'il contient. Cependant, l'augmentation et l'évolution considérables de ces données soulèvent d'importants problèmes pour les utilisateurs notamment pour l'accès aux documents les plus pertinents à leurs requêtes de recherche. Afin de faire face à cette explosion exponentielle du volume de données et faciliter leur accès par les utilisateurs, différents modèles sont proposés par les systèmes de recherche d'information (SRIs) pour la représentation et la recherche des documents web. Les SRIs traditionnels utilisent, pour indexer et récupérer ces documents, des mots-clés simples qui ne sont pas sémantiquement liés. Cela engendre des limites en termes de la pertinence et de la facilité d'exploration des résultats. Pour surmonter ces limites, les techniques existantes enrichissent les documents en intégrant des mots-clés externes provenant de différentes sources. Cependant, ces systèmes souffrent encore de limitations qui sont liées aux techniques d'exploitation de ces sources d'enrichissement. Lorsque les différentes sources sont utilisées de telle sorte qu'elles ne peuvent être distinguées par le système, cela limite la flexibilité des modèles d'exploration qui peuvent être appliqués aux résultats de recherche retournés par ce système. Les utilisateurs se sentent alors perdus devant ces résultats, et se retrouvent dans l'obligation de les filtrer manuellement pour sélectionner l'information pertinente. S'ils veulent aller plus loin, ils doivent reformuler et cibler encore plus leurs requêtes de recherche jusqu'à parvenir aux documents qui répondent le mieux à leurs attentes. De cette façon, même si les systèmes parviennent à retrouver davantage des résultats pertinents, leur présentation reste problématique. Afin de cibler la recherche à des besoins d'information plus spécifiques de l'utilisateur et améliorer la pertinence et l'exploration de ses résultats de recherche, les SRIs avancés adoptent différentes techniques de personnalisation de données qui supposent que la recherche actuelle d'un utilisateur est directement liée à son profil et/ou à ses expériences de navigation/recherche antérieures. Cependant, cette hypothèse ne tient pas dans tous les cas, les besoins de l'utilisateur évoluent au fil du temps et peuvent s'éloigner de ses intérêts antérieurs stockés dans son profil. Dans d'autres cas, le profil de l'utilisateur peut être mal exploité pour extraire ou inférer ses nouveaux besoins en information. Ce problème est beaucoup plus accentué avec les requêtes ambigües. Lorsque plusieurs centres d'intérêt auxquels est liée une requête ambiguë sont identifiés dans le profil de l'utilisateur, le système se voit incapable de sélectionner les données pertinentes depuis ce profil pour répondre à la requête. Ceci a un impact direct sur la qualité des résultats fournis à cet utilisateur. Afin de remédier à quelques-unes de ces limitations, nous nous sommes intéressés dans ce cadre de cette thèse de recherche au développement de techniques destinées principalement à l'amélioration de la pertinence des résultats des SRIs actuels et à faciliter l'exploration de grandes collections de documents. Pour ce faire, nous proposons une solution basée sur un nouveau concept d'indexation et de recherche d'information appelé la projection multi-espaces. Cette proposition repose sur l'exploitation de différentes catégories d'information sémantiques et sociales qui permettent d'enrichir l'univers de représentation des documents et des requêtes de recherche en plusieurs dimensions d'interprétations. L'originalité de cette représentation est de pouvoir distinguer entre les différentes interprétations utilisées pour la description et la recherche des documents. Ceci donne une meilleure visibilité sur les résultats retournés et aide à apporter une meilleure flexibilité de recherche et d'exploration, en donnant à l'utilisateur la possibilité de naviguer une ou plusieurs vues de données qui l'intéressent le plus. En outre, les univers multidimensionnels de représentation proposés pour la description des documents et l'interprétation des requêtes de recherche aident à améliorer la pertinence des résultats de l'utilisateur en offrant une diversité de recherche/exploration qui aide à répondre à ses différents besoins et à ceux des autres différents utilisateurs. Cette étude exploite différents aspects liés à la recherche personnalisée et vise à résoudre les problèmes engendrés par l'évolution des besoins en information de l'utilisateur. Ainsi, lorsque le profil de cet utilisateur est utilisé par notre système, une technique est proposée et employée pour identifier les intérêts les plus représentatifs de ses besoins actuels dans son profil. Cette technique se base sur la combinaison de trois facteurs influents, notamment le facteur contextuel, fréquentiel et temporel des données. La capacité des utilisateurs à interagir, à échanger des idées et d'opinions, et à former des réseaux sociaux sur le Web, a amené les systèmes à s'intéresser aux types d'interactions de ces utilisateurs, au niveau d'interaction entre eux ainsi qu'à leurs rôles sociaux dans le système. Ces informations sociales sont abordées et intégrées dans ce travail de recherche. L'impact et la manière de leur intégration dans le processus de RI sont étudiés pour améliorer la pertinence des résultats. Since its appearance in the early 90's, the World Wide Web (WWW or Web) has provided universal access to knowledge and the world of information has been primarily witness to a great revolution (the digital revolution). It quickly became very popular, making it the largest and most comprehensive database and knowledge base thanks to the amount and diversity of data it contains. However, the considerable increase and evolution of these data raises important problems for users, in particular for accessing the documents most relevant to their search queries. In order to cope with this exponential explosion of data volume and facilitate their access by users, various models are offered by information retrieval systems (IRS) for the representation and retrieval of web documents. Traditional SRIs use simple keywords that are not semantically linked to index and retrieve these documents. This creates limitations in terms of the relevance and ease of exploration of results. To overcome these limitations, existing techniques enrich documents by integrating external keywords from different sources. However, these systems still suffer from limitations that are related to the exploitation techniques of these sources of enrichment. When the different sources are used so that they cannot be distinguished by the system, this limits the flexibility of the exploration models that can be applied to the results returned by this system. Users then feel lost to these results, and find themselves forced to filter them manually to select the relevant information. If they want to go further, they must reformulate and target their search queries even more until they reach the documents that best meet their expectations. In this way, even if the systems manage to find more relevant results, their presentation remains problematic. In order to target research to more user-specific information needs and improve the relevance and exploration of its research findings, advanced SRIs adopt different data personalization techniques that assume that current research of user is directly related to his profile and / or previous browsing / search experiences. However, this assumption does not hold in all cases, the needs of the user evolve over time and can move away from his previous interests stored in his profile.

Fusion multi-niveaux pour l'indexation et la recherche multimédia par le contenu sémantique

Fusion multi-niveaux pour l'indexation et la recherche multimédia par le contenu sémantique PDF Author: Rachid Benmokhtar
Publisher:
ISBN:
Category :
Languages : fr
Pages :

Get Book Here

Book Description
Aujourd'hui, l'accès aux documents dans les bases de données, d'archives et sur Internet s'effectue principalement grâce à des données textuelles : nom de l'image ou mots-clés. Cette recherche est non exempte de fautes plus ou moins graves : omission, orthographe, etc. Les progrès effectués dans le domaine de l'analyse d'images et de l'apprentissage automatique permettent d'apporter des solutions comme l'indexation et la recherche à base des caractéristiques telles que la couleur, la forme, la texture, le mouvement, le son et le texte. Ces caractéristiques sont riches en informations et notamment d'un point de vue sémantique. Cette thèse s'inscrit dans le cadre de l'indexation automatique par le contenu sémantique des documents multimédia: plans vidéo et images-clés. L'indexation consiste à extraire, représenter et organiser efficacement le contenu des documents d'une base de données. L'état de l'art du domaine est confronté au «fossé sémantique» qui sépare les représentations visuelles brutes (bas-niveau) et conceptuelles (haut-niveau). Pour limiter les conséquences de cette problématique, nous avons introduit dans le système plusieurs types de descripteurs, tout en prenant à notre avantage les avancées scientifiques dans le domaine de l'apprentissage automatique et de la ``fusion multi-niveaux''. En effet, la fusion est utilisée dans le but de combiner des informations hétérogènes issues de plusieurs sources afin d'obtenir une information globale, plus complète, de meilleure qualité, permettant de mieux décider et d'agir. Elle peut être appliquée sur plusieurs niveaux du processus de classification. Dans cette thèse, nous avons étudié la fusion bas-niveau (précoce), la fusion haut-niveau (tardive), ainsi qu'à un niveau décisionnel basé sur l'ontologie et la similarité inter-concepts dit de raisonnement. Les systèmes proposés ont été validés sur les données de TRECVid (projet NoE K-Space) et les vidéos de football issues d'Orange-France Télécom Labs (projet CRE-Fusion). Les résultats révèlent l'importance de la fusion sur chaque niveau du processus de classification, en particulier, l'usage de la théorie des évidences

UNE BOITE A OUTILS POUR LA CONSTRUCTION ET LA FEDERATION DE MULTIPLES SOURCES DE DONNEES DANS UN SYSTEME DISTRIBUE

UNE BOITE A OUTILS POUR LA CONSTRUCTION ET LA FEDERATION DE MULTIPLES SOURCES DE DONNEES DANS UN SYSTEME DISTRIBUE PDF Author: LEILA.. HAMMAMI
Publisher:
ISBN:
Category :
Languages : fr
Pages : 190

Get Book Here

Book Description
DIFFERENTS TYPES D'APPLICATIONS AVANCEES NECESSITENT L'ACCES FIABLE A DE MULTIPLES SOURCES DE DONNEES (DS) DISTRIBUEES ET POTENTIELLEMENT HETEROGENES. CETTE THESE PROPOSE UNE BOITE A OUTILS FACILITANT LE DEVELOPPEMENT DE GESTIONNAIRES DE DATA SOURCE (DSM) NON SUPPORTES PAR LES SGBDS STANDARDS ET PERMETTANT D'INTEGRER LES DSMS DANS UNE ARCHITECTURE DISTRIBUEE. CETTE BOITE A OUTILS EST DIVISEE EN DEUX FAMILLES DE SERVICES, LES OUTILS DE CONSTRUCTION ET LES OUTILS D'INTEGRATION. LES OUTILS DE CONSTRUCTION S'ARTICULENT AUTOUR DE TROIS GESTIONNAIRES: UN GESTIONNAIRE DE STOCKAGE AFIN DE DEFINIR DES STRUCTURES DE STOCKAGE ET D'ACCES AD-HOC POUR LES SERVICES D'UN DSM, UN GESTIONNAIRE DE TACHES POUR LE SUPPORT DU PARALLELISME INTER ET INTRA OPERATION ET UN GESTIONNAIRE DE TRANSACTIONS LOCALES AFIN DE GARANTIR LA COHERENCE DES DONNEES LOCALES AU DSM. CES GESTIONNAIRES, INDEPENDANTS DE TOUT MODELE DE DONNEES, SE CARACTERISENT PAR LEUR MODULARITE ET LEUR EXTENSIBILITE PERMETTANT AU DEVELOPPEUR DE RAJOUTER DES SERVICES ET STRUCTURES AD-HOC A UN DSM ET PAR UNE GESTION DE TRANSACTIONS FLEXIBLE PROPOSANT DES MECANISMES AUTOMATIQUES DE CONTROLE DE CONCURRENCE ET DE REPRISE AU SEIN D'UN MODELE DE TRANSACTIONS IMBRIQUES POUVANT ETRE DESACTIVES PAR LE CONCEPTEUR DE SYSTEME POUR DEFINIR DE NOUVEAUX PROTOCOLES ET MODELES DE TRANSACTIONS A PARTIR DU MODELE GENERIQUE PROPOSE. UN ASPECT IMPORTANT DES OUTILS DE CONSTRUCTION EST QUE LES SERVICES DE CES GESTIONNAIRES ONT ETE CONCUS AFIN DE FACILITER L'INTEGRATION D'UN DSM DANS UNE ARCHITECTURE DISTRIBUEE FLEXIBLE ET DE PERMETTRE A DIFFERENTS DSM DE COOPERER DE MANIERE FIABLE. CES OUTILS FACILITENT LES INTERACTIONS TRANSPARENTES ET PERMETTENT DE PARAMETRER DIFFERENTES GRANULARITES D'ECHANGE DE DONNEES, DE VERROUILLAGE ET DE COHERENCE NECESSAIRES AU TRAITEMENT COOPERATIF. LES OUTILS D'INTEGRATION PERMETTENT DE FEDERER UN DSM DANS UNE ARCHITECTURE DISTRIBUEE CONFIGURABLE. ILS INCLUENT: (I) UN GESTIONNAIRE DE LOCALISATION POUR LOCALISER DE MANIERE TRANSPARENTE LES DONNEES D'UN DSM, (II) UN GESTIONNAIRE DE COMMUNICATION QUI PERMET A UN CLIENT D'INVOQUER LES SERVICES EXPORTES PAR UN DSM DISTANT DE MANIERE TRANSACTIONNELLE ET (III) UN GESTIONNAIRE DE TRANSACTIONS GLOBALES QUI GARANTIT LA COHERENCE DES TRANSACTIONS GLOBALES S'EXECUTANT SUR DIFFERENTS DSM. LES OUTILS D'INTEGRATION SONT INDEPENDANTS DE N'IMPORTE QUELLE CONFIGURATION D'ARCHITECTURE DISTRIBUEE. ILS SONT ORGANISES EN MODULES INDEPENDANTS FLEXIBLES, CHACUN RESPONSABLE D'UNE TACHE DETERMINEE ET SONT UTILISES COMME UN LEGO POUR GENERER DIFFERENTES CONFIGURATIONS. CETTE CONFIGURABILITE EST ESSENTIELLE POUR DEVELOPPER DES APPLICATIONS AVANCEES AYANT DES ARCHITECTURES DIFFERENTES ET FACILITE L'INTEGRATION DE DSM DANS DES ARCHITECTURES EXISTANTES. CES OUTILS ONT ETE VALIDES DANS UN PROJET ESPRIT IMPRESS

Fusion Multi-sources D'informations de Haut Niveau

Fusion Multi-sources D'informations de Haut Niveau PDF Author: Claire Laudy
Publisher:
ISBN:
Category :
Languages : en
Pages : 228

Get Book Here

Book Description
Un enjeu majeur des systèmes d'aide à la décision est d'automatiser le prétraitement de ces informations afin d'en faciliter l'accès. L'objectif de notre travail est la reconnaissance d'occurrences de situations particulières, à partir d'observations issues de plusieurs sources. Dans le processus global de fusion d'informations pour la reconnaissance de situations, nous nous intéressons en particulier à trois étapes. D'abord, les situations que l'on souhaite reconnaître sont modélisées à l'aide du formalisme des graphes conceptuels. Nous bénéficions ainsi des travaux théoriques réalisés sur ce formalisme. Ensuite, l'identification des observations compatibles permet de vérifier que deux observations correspondent à la même situation, avant de tenter de les combiner. Cette identification repose sur l'utilisation de mesures de similarité de graphes adaptables à un domaine d'application spécifique. Enfin, la fusion d'informations repose sur l'utilisation de l'opération de jointure maximale sur les graphes conceptuels. Afin de permettre de fusionner des informations qui ne sont pas complètement identiques, nous relaxons les contraintes d'égalité des valeurs de deux nœuds concepts. La validation de notre travail se divise en deux phases. D'abord, nous mettons en évidence la validité de notre approche ainsi que l'importance d'injecter de la connaissance métier à l'intérieur du processus de fusion. Pour ce faire, nous utilisons notre plate-forme de fusion dans le cadre d'un système de recommandation de programmes télévisés. Ensuite, nous validons la généricité et l'adaptabilité de notre approche en utilisant la plate-forme de fusion sur quatre applications supplémentaires.

Multi-utilisation de données complexes et hétérogènes

Multi-utilisation de données complexes et hétérogènes PDF Author: Cong Cuong Pham
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
L'émergence des technologies de l'information et de la communication (TIC) au début des années 1990, notamment internet, a permis de produire facilement des données et de les diffuser au reste du monde. L'essor des bases de données, le développement des outils applicatifs et la réduction des coûts de stockage ont conduit à l'augmentation quasi exponentielle des quantités de données au sein de l'entreprise. Plus les données sont volumineuses, plus la quantité d'interrelations entre données augmente. Le grand nombre de corrélations (visibles ou cachées) entre données rend les données plus entrelacées et complexes. Les données sont aussi plus hétérogènes, car elles peuvent venir de plusieurs sources et exister dans de nombreux formats (texte, image, audio, vidéo, etc.) ou à différents degrés de structuration (structurées, semi-structurées, non-structurées). Les systèmes d'information des entreprises actuelles contiennent des données qui sont plus massives, complexes et hétérogènes. L'augmentation de la complexité, la globalisation et le travail collaboratif font qu'un projet industriel (conception de produit) demande la participation et la collaboration d'acteurs qui viennent de plusieurs domaines et de lieux de travail. Afin d'assurer la qualité des données, d'éviter les redondances et les dysfonctionnements des flux de données, tous les acteurs doivent travailler sur un référentiel commun partagé. Dans cet environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute de nouvelles données et informations techniques. Les données peuvent soit avoir des dénominations différentes, soit ne pas avoir des provenances vérifiables. Par conséquent, ces données sont difficilement interprétées et accessibles aux autres acteurs. Elles restent inexploitées ou non exploitées au maximum afin de pouvoir les partager et/ou les réutiliser. L'accès aux données (ou la recherche de données), par définition est le processus d'extraction des informations à partir d'une base de données en utilisant des requêtes, pour répondre à une question spécifique. L'extraction des informations est une fonction indispensable pour tout système d'information. Cependant, cette dernière n'est jamais facile car elle représente toujours un goulot majeur d'étranglement pour toutes les organisations (Soylu et al. 2013). Dans l'environnement de données complexes, hétérogènes et de multi-utilisation de données, fournir à tous les utilisateurs un accès facile et simple aux données devient plus difficile pour deux raisons : - Le manque de compétences techniques. Pour formuler informatiquement une requête complexe (les requêtes conjonctives), l'utilisateur doit connaitre la structuration de données, c'est-à-dire la façon dont les données sont organisées et stockées dans la base de données. Quand les données sont volumineuses et complexes, ce n'est pas facile d'avoir une compréhension approfondie sur toutes les dépendances et interrelations entre données, même pour les techniciens du système d'information. De plus, cette compréhension n'est pas forcément liée au savoir et savoir-faire du domaine et il est donc, très rare que les utilisateurs finaux possèdent les compétences suffisantes. - Différents points de vue des utilisateurs. Dans l'environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute des nouvelles données et informations techniques. Les données peuvent être nommées de manières très différentes et les provenances de données ne sont pas suffisamment fournies.