Mémoires de Magister "Informatique"
URI permanent de cette collection
Parcourir par
Parcourir la collection Mémoires de Magister "Informatique" par Date de publication
Voici les éléments 1 - 20 sur 135
Résultats par page
Options de tri
- ItemTechniques de compression et d'agrégation à efficacité énergétique dans les RCSF(02-2008) BAKAR KhaledLe But des réseaux de capteurs sans fil (RCSF) de surveillance de l?environnement est de rapporter les variables dynamiques de l?environnement du site de déploiement jusqu'à la station de base (Sink) afin d?observer et de contrôler l?environnement. Avec une batterie à capacité limitée, les réseaux de capteur sans fil sont caractérisés par la situation où chaque bit envoyé diminue la durée de vie d?un noeud. Par conséquent l'économie d'énergie devient un objectif essentiel de conception. Un réseau de capteurs réussi réduira au minimum la consommation d'énergie à tous les niveaux de sa pile protocolaire, de la couche application à la couche physique. Notre étude s'inscrit dans la conservation de l'énergie en réduisant le nombre de bits transmis dans le réseau. Cette réduction est principalement accomplie par : . La compression des informations récoltées par un capteur.. L'agrégation dans un message des informations issues de plusieurs capteurs. Stone- Weierstrass à démontré par son théorème sur l?approximation des fonctions que toute fonction compliquée qu'elle soit, peut être approchée, aussi près qu?on le veut et uniformément, par les fonctions les plus simples qui existent : les polynômes. Ce projet vise à introduire la notion de l'approximation polynomiale comme technique de compression et d'agrégation dans les applications environnementales afin de réduire au minimum l'information transmise sur un réseau de capteurs et par conséquent prolonger sa durée de vie.
- ItemGraphes d'indination et réseau de neurones une nouvelle technique hybride pour la sélection et la segmentation des données(Université Oran 1 Ahmed Ben Bella, 2005-12-17) TALEB ZOUGGAR SouadLes méthodes de l'apprentissage automatique ont été développées pour résoudre les problèmes rencontrés avec les systèmes experts, leur objectif est de construire un modèle de prédiction, appelé classifieur. Ce modèle nous permettra d'identifier un attribut à prédire, appelé classe. Il existe deux grandes approches d'apprentissage, l'approche connexionniste ou numérique représentée par les réseaux de neurones et l'approche symbolique qui regroupe plusieurs méthodes, parmi lesquelles la méthode à base de graphes d'induction SIPINA. Dans cette thèse, nous proposons une nouvelle technique qui permet de réduire la taille du graphe d'induction généré par SIPINA. Pour ce faire nous développons un système d'apprentissage neuronal qui filtre les données avant de les prêter à un apprentissage symbolique par la méthode SIPINA, que nous avons implémenté. Le couplage entre les deux systèmes symbolique et connexionniste permet de réaliser une fonction double: apprentissage et sélection - élimination des variables et individus non pertinents, ce qui va nous permettre de réduire la complexité de calcul et de stockage et d'améliorer les résultats.
- ItemVers un système formel : Etude des incohérences sémantiques d'UML : Vue et corrigées par la programmation par contraintes(2006-11-14) MAMI Mohammed AmineDe plus en plus, les méthodes formelles sortent des prototypes des laboratoires pour s'attaquer à des applications industrielles et pour compléter les outils et langages non formels ou semi-formels afin de les rendre optimaux et sûres. Parmi ses langages, UML, vu son emprunt dans le monde de la modélisation et son progrès fracassants, est placé parmi les outils les plus utilisés sinon le plus convoité. Mais cela par sa spécificité semi-formelle l'existence des problèmes (dans notre étude ses problèmes ont une notation strictement sémantique) peuvent être éliminés en y intégrant des contraintes CSP et qui fait office de partie formelle. Ce jumelage reste, par contre, juste un prélude pour des travaux futurs dans le domaine de la formalisation du langage UML que nous espérons avec l'intégration d'un autre outil formel qu'est les réseaux de Pétri (un des outils les plus puissants dans le domaine de la modélisation) porteur de bonne solutions pour un langage qui, dans un avenir proche, prendra une place au sommet.
- ItemApproche Théorie des Graphes pour la Surveillance d’un Réseau de Capteurs sans fil(université Oran 1 Ahmed Ben Bella, 2007) BENAHMED KhélifaLes réseaux de capteurs sans fil (RCSF), sont des réseaux types Ad hoc, auto organisées et ne nécessitant pas d'infrastructure. Les entités formant un tel réseau doivent collaborer afin d'assurer le bon fonctionnement des ses services, tels que le routage, la couverture. Ils sont déployés généralement en une grande masse de noeuds capteurs dans des environnements hostiles. Dans de tels environnement, notre travail se penche sur la surveillance de ses réseaux, afin de garantir la continuité de leurs différents services et d'augmenter leur durée de vie. Nos travaux contribuent à l'étude de deux points précis de la surveillance d'un RCSF. Dans ce contexte, nous proposons des stratégies pour que le réseau devienne tolérant aux fautes. La première stratégie consiste en la prédiction des déconnexions entrainée par la mobilité ou l'échec des capteurs. Nous proposons une solution basée sur la recherche d'ensemble de chemins disjoints dans un graphe de connectivité. La deuxième concerne la détection des cibles faiblement à couverts, en testant la robustesse des liens de couverture qui assure une couverture minimale des cibles et exploite la redondance physique des capteurs, afin d'économiser l'énergie global du réseau en faisant basculer les noeuds capteurs entre les modes active et veille.
- ItemAspects E-learning dans les modèles d'ingénierie des connaissances, selon la méthode MASK(Université Oran 1 Ahmed Ben Bella, 2007) BENMAHAMED DjilaliDans le cadre de nos travaux, nous proposons une démarche qui lie ce processus d'explicitation et de capitalisation des savoirs et des savoir-faire métier développé autour des modèles MASK à celui de l'apprentissage et de l'approbation de ces connaissances appuyé par des scénarios pédagogiques qui décrivent le contenu du dispositif d'apprentissage un environnement informatique pour l'apprentissage humain, type E-Learning. Cette démarche s'articule autour des fondements des connaissances qu'encapsulent les modèles MASK et ceux de l'ingénierie pédagogique exploitables à travers les scénarios pédagogique. Après la définition d'un domaine d'étude, l'explicitation et la capitalisation des savoirs et des savoir-faire métiers du domaine via une modélisation MASK succèdent. A l'issue de cette étape, nous proposons trois formes de passage de ces modèles MASK vers des scénarios pédagogiques dont les éléments sont définis à base de la norme IMS - Learning Design. Ce recours à la normalisation renforce la scénarisation et répond à une vision de standardisation et de réutilisation du contenu du dispositif d'apprentissage. Après avoir vérifier l'intérêt des modèles MASK pour une telle démarche de conception et de définition d'un contenu d'EIAH type e-Learning à base des connaissances encapsulées dans ces modèles, nous proposons les trois résolutions puis nous faisons un choix argumenté. Notre choix est axé sur le modèle principale d'activités comme point de départ privilège pour l'extraction des aspects e-Learning, sous forme d'éléments IMS - Learning Design, à partir des modèles MASK qui découlent de ce modèle d'activités. Nous mettons en oeuvre, dans une étape suivante, cette contribution théorique de passage : nous arrêtons " la conduite de projets " comme domaine d'application, capitalisations les connaissances dans des modèles MASK, appliquons le processus de passage tel que nous l'avons conçu et aboutissons à un scénario pédagogique destiné aux acteurs du domaine à travers un environnement informatique pour l'apprentissage Humain, type E-Learning et décrit en IMS - LD.
- ItemCodage paramétrique de la parole en vue de sa transmission sur Internet(2007-02-17) LACHACHI Nour-EddineLe codage de la parole exige la description pertinente et l'extraction précise d'informations du signal. Cela ne peut se faire qu'avec l'aide de théories et de techniques puissantes développées en traitement du signal dont la maîtrise requiert des connaissances très spécialisées. Par ailleurs, la grande complexité de la parole nécessite des traitements particuliers liés à sa production et à sa perception. Le signal de parole étant porteur d'une information spécifique pour la communication entre le locuteur et l'auditeur, le mécanisme de celle-ci ne doit pas être ignoré lors de la réduction de débit. Le but principal de notre étude ne devait pas principalement développer des nouvelles techniques de codage, mais plutôt gagner la compréhension théorique dans les avantages et les inconvénients des techniques de codage et de trouver un motivation pour une approche permettant l’obtention d’une meilleure compréhension des étapes séparées d'un codeur de parole. Les sons de parole sont produits soit par les vibrations des cordes vocales (source de voisement), soit par l'écoulement turbulent de l'air dans le conduit vocal, où soit lors du relâchement d'une occlusion de ce conduit (source de bruit). On modélise un conduit vocal par une succession de tubes acoustiques de sections diverses qui peuvent être représenté par un filtre linéaire à paramètre variable dans le temps. Le signal vocal est numérisé à l’aide d’un convertisseur analogique/numérique. Comme la voix humaine est constituée d’une multitude de sons, souvent répétitifs, le signal peut être compressé pour réduire le temps de transmission, ainsi on parle de système de codage. Un système de codage de la parole comprend deux parties, un codeur et un décodeur. Le codeur analyse le signal pour en extraire un nombre réduit de paramètres pertinents qui sont représentés par un nombre restreint de bits pour archivage ou transmission. Le décodeur utilise ces paramètres pour reconstruire un signal de parole synthétique.
- ItemEvaluation de la pertinence des méthodes de diagnostic en maintenance industrielle : Vers un système multicritère d'aide au diagnostic " SMAD"(2007-02-19) DJEBBAR Amel MouniaLe travail présenté dans ce mémoire, s'inscrit dans l'optique qui vise à supprimer ou à atténuer l'impact des essais infructueux de mise en place d'outils de diagnostic sur le bon fonctionnement d'une entreprise. L'élaboration du système multicritère d'aide au diagnostic SMAD est une réponse au problème. Il s'agit d'un outil intégré pour le choix du système de diagnostic le plus pertinent. Cet outil a été développé en utilisant l'approche multicritère Electre III. En se basant sur un ensemble de critère ainsi qu'un ensemble d'outils de diagnostic minutieusement sélectionné et implémenté pour la circonstance, à savoir : diagnostic par système expert qui modélise les connaissances sous forme de graphes, probabilistes réalisée à l'aide d'un algorithme itératif Baum Welch ainsi que l'algorithme de Viterbi pour la génération de la séquence des effets de défaillances et par réseaux bayésiens qui formalise la connaissance d'experts sous forme d'un modèle graphique représentant les indépendances conditionnelles entre un ensemble de variables, l'algorithme d'inférences JLO que nous avons appliqué au problème du diagnostic nous a permis de déterminer la cause de la défaillance du système physique. Enfin, étant donné les difficultés rencontrées pour l'acquisition des modèles, les expertises déjà disponibles en entreprise constituent des sources précieuses d'information, le modèle de défaillance a été réalisé à l'aide de l'outil courant de diagnostic AMDEC.
- ItemEtude des Structures Laser dans L' Infra-rouge Moyen à base de puits Quantiques de GaInAsSb-GaAlAsSb(2007-05-12) CHAALA NadifaCe travail consiste à étudier les propriétés physiques et optimiser les performances de structures Laser devant fonctionner dans l'infra-rouge moyen dans la gamme de longueurs d'ondes : 2Um
- ItemDispositifs de partage des connaissances pour une démarche knowledge management : Cas du groupe pétrlier SONATRACH(Université Oran 1 Ahmed Ben Bella, 2007-06-06) BRAHAMI MenaouerActuellement et avec la mondialisation les connaissances et les informations deviennent les pivots des entreprises. En effet, l'introduction des nouvelles technologies a modifié les comportements dans les entreprises ainsi que la circulation des informations qui ont pour but de modifier les processus de décision. Dans ce nouveau contexte technologique contexte technologique et économique, le knowledge management devient pour les entreprises un enjeu majeur. Les dommages potentiels occasionnés par la perte d'une compétence clé et les volumes importants de départs, programmés ou pas, du personnel le plus expérimenté, nous enseigne d'une manière impérative, sur la nécessité de réfléchir à une stratégie de gestion des connaissances. Dans notre thèse, nous visons à définir les éléments d'une stratégie KM auprès de la division PED (Petroleum Engineering & Development) de l'activité amont du groupe pétrolier Sonatrach. Une cartographie de ces savoir-faire a été réalisée en utilisant une méthode de cartographie orientée par la stratégie. Par notre démarche de cartographie, nous avons visé le repérage des connaissances (recensement des domaines de connaissances, localisation des détenteurs d'expertise, etc.), l'évaluation/analyse de la criticité du patrimoine des connaissances (audit) et la visualisation des connaissances critiques et alignées à la stratégie Sonatrach. Ce travail permettra d'identifier les savoir-faire métiers impactés par cette stratégie et donc les domaines de connaissances à soutenir et/ou à développer. En effet, ce repérage des connaissances nécessite des dispositifs technologiques. Un des plus puissants parmi ces dispositifs est le serveur des connaissances, qui reste un moyen techniquement simple à développer par les acteurs métiers (knowledge workers) accessibles et sécurisables. Notre contribution s'inscrit dans la perspective de cette nouvelle technique de management qui est devenue une démarche nécessaire pour la pérennité d'une entreprise. Plusieurs axes sont en cours d'approfondissement grâce notamment à l'essor des technologies de l'information et de la communication (TIC). La présente approche est traversée par le questionnement sur la formation, l'apprentissage et la gestion des connaissances. Parce que les TIC ont été introduites dans l'entreprise mais ne permettrent pas encore la transformation ou l'échange des connaissances, Les synergies entre ces nouvelles technologies (e-learning) et le processus direct de capitalisation et de partage (communautés de pratique, annuaires d'experts, rencontres, etc.) feront partie de cet approfondissement.
- ItemExpérimentation des Algorithmes Génétiques Multiobjectifs dans un Processus Décisionnel Multicritère en Aménagement du Territoire(2007-06-09) LABED KaoutherLes problèmes territoriaux (spatiaux) sont de nature complexe faisant intervenir plusieurs acteurs de nature différente. De ce fait, les modèles décisionnels existants s?avèrent insuffisants pour pallier aux problèmes urbains. Les approches utilisées dans ce contexte d'étude combinent plusieurs outils tels que les Systèmes d?Informations Géographiques (SIG) ainsi que les Méthodes d?Analyse MultiCritère (MAMC) dont l?objectif crucial est d?aider le décideur à sélectionner une alternative parmi plusieurs sur la base de critères de décision. Dés lors, en aménagement du territoire (AT), la problématique de localisation de site pour une construction donnée, est l?une des problématiques des plus fréquentes dans la littérature relative à l'aide à la décision spatio-temporelle et la méthode d?analyse multicritère Electre III est, par conséquent, la plus convoitée dans le traitement d'une telle problématique. Au travers ce mémoire, nous envisageons des moyens d'assistance à la démarche décisionnelle en AT, relativement aux enjeux des différentes phases du processus de prise de décision territoriale. Nous visons à proposer un outil d?aide à la décision susceptible d?apporter une aide pertinente aux décideurs intervenant dans un projet d?aménagement et nous traitons la problématique de localisation en combinant les Systèmes d?Informations Géographiques, les approches l?analyse multicritère à savoir Electre III et les Algorithmes Génétiques (AGs) Multiobjectifs. En effet, l?introduction des Algorithmes Génétiques selon une optimisation Multiobjective (Optimisation simultanée de plusieurs critères, généralement contradictoires) vient pour pallier aux irrégularités détectées dans Electre III spécialement dans le processus de classement (phase d'exploitation de la méthode).Aussi, leur exploitation dans l'élaboration des processus de conduite des projets urbains permet de fournir aux décideurs une variété de classements (intéressants) des sites concurrents et d'améliorer par la suite la qualité de la décision apportée. Pour valider le modèle décisionnel proposé PRODUSMAGAT, une procédure d'utilisation accompagne le prototype élaboré qui met l'accent sur quelques projets urbains à l'échelle nationale (en Algérie et particulièrement à la ville d'Oran).
- ItemEtude et mise en pratique d'une démarche de modélisation (UML) par Apprentissage Symbolique Automatique(2007-06-12) BOUDIA ChérifaDans le cadre de cette thèse, nous avons proposé une démarche de modélisation UML guidée par l’apprentissage automatique symbolique afin d’optimiser l’utilisation de la base de données pour un meilleur résultat. Dans une tentative d’automatiser la phase d’analyse, cette approche représente un apport performant dans la modélisation. L'automatisation quasi-complète des phases de capture et d’analyse apparaît comme une solution de plus en plus souhaitable avec la montée en complexité des problèmes modélisés. Cette automatisation nécessite des techniques et des outils puissants pour la fouille de données ainsi que pour la modélisation UML. Ces techniques raffinent le modèle de l'application et les changements liés à l'implantation de cette application. Il est évident que ces techniques monopolisent l'attention du concepteur et lui évitent de se focaliser sur des activités annexes et sans intérêt pour la conception de l'application [BOUD 05]. Nous avons donc proposé, lors de cette thèse, une solution permettant d'enrichir le cahier des charges pour une modélisation complète en faisant extraire des connaissances à partir de données propres au domaine d’application. Notre approche est fondée sur les techniques de fouille de données, plus précisément l’approche symbolique illustrée par l’algorithme Sipina pour sa facilité à interpréter les résultats fournis.
- ItemContribution à la Spécification et à l’Evaluation d’un Système d’Information Voyageurs pour un réseau de transport urbain dans les Véhicules, et en Station(2007-06-12) AMRANI FouziaNotre travail contribue à l’évaluation des systèmes interactifs orientés agent, l’évaluation étant basée sur un outil de recueil d’information. Nous proposons, dans ce cadre, un mouchard électronique permettant l’acquisition et l’analyse des interactions homme- machine dans des systèmes orientés agents ; celui-ci peut être vu comme un outil d’aide aux évaluateurs. Le mémoire est organisé en cinq chapitres. Le premier chapitre intitulé « Les méthodes d'évaluation ergonomique des systèmes d'information », s’intéresse aux méthodes d’évaluation des systèmes interactifs et plus particulièrement des interfaces homme-machine. Le deuxième chapitre, appelé « architecture des systèmes interactifs » présente les principes des modèles d’architecture les plus cités actuellement. Suite à la présentation dans les deux premiers chapitres d'un état de l'art, nous proposons dans le chapitre trois, intitulé «Principe de couplage entre l'architecture du SAIV et son évolution», notre principale contribution : (1) on y propose les principes d’une architecture à base d’agents dédiée aux systèmes interactifs. Le quatrième chapitre intitulé « Mise en œuvre du principe de couplage » présente notre contribution concernant la réalisation d’un système d’aide à l’information voyageuse (SAIV) permettant d’assister les régulateurs humains d’un réseau de bus et de faciliter leurs tâches. Après l’analyse, la modélisation, la spécification et le maquettage du SAIV, nous détaillerons ensuite l’implémentation du mouchard électronique ainsi que son couplage avec le SAIV. Ce mouchard nous servira d’outil de base pour l’évaluation du SAIV. Enfin, dans le dernier chapitre appelé « Evaluation du SAIV », nous présentons une évaluation du Système d’Aide à l’Information (SAIV) réalisé. Cette évaluation se basera essentiellement sur le système d’aide à l’évaluation qui assure le couplage entre le mouchard électronique et le SAIV.
- ItemConfiguration dynamique des mémoires cachés : Application aux systèmes embarqués(2007-07-03) BENGUEDDACH AsmaaLe domaine des systèmes embarqués a pris un essor croissant ces dernières années. D’une part nous avons les évolutions dans la technologie de fabrication des circuits intégrés, et d’autre part la demande du marché qui a permis le financement de ces évolutions. Les systèmes embarqués sont de plus en plus complexes. Ils intègrent des parties logicielles et des parties matérielles cohabitant sur une seule puce. Les applications dédiées aux systèmes embarqués nécessitent une grande puissance de calcul avec comme contraintes la consommation d’énergie et la disponibilité des ressources de traitement embarquées. Les méthodologies de conception classiques basées sur le modèle Y [GHAL 05] et les techniques du co-design ont fait leurs preuves dans le domaine de la conception. Cependant, ces derniers restes insuffisants lorsque le nombre de paramètres, à prendre en considération pour le choix d’une architecture (une des étapes du flot de conception), est important. L’architecture trouvée est un compromis entre les critères suivants : flexibilité, consommation, performance, coût et rapidité de conception en terme TTM (Time To- Market). Le thème de notre travail concerne «la configuration dynamique des mémoires caches dans les systèmes embarqués ». Il est utile de contextualiser pour mieux appréhender les objectifs fixés dans le cahier de charges. Nous nous intéressons, plus précisément à améliorer le flot de conception des systèmes embarqués mono puce. Nous proposons dans ce travail une nouvelle méthode hybride d’exploration d’espace de recherche des architectures basée sur l’algorithme génétique multi objectif AGMO (nous prenons en compte deux critères : performance et consommation d’énergie) et le recuit simulé.
- ItemSystème d'aide à la décision en Aménagement du Territoire : Approche du tri multicritère, intégrale de Choquet et SIG(2008-01-20) GHALEM Mohamed RafikDans ce mémoire, nous avons élaboré le modèle décisionnel ADMAT (Aide à la Décision Multicritère en Aménagement du Territoire) qui intègre un SIG permettant de décrire le territoire et les méthodes de tri multicritère comme outils d?analyse.Ce modèle élabore un diagnostic concerté du territoire et permet de résoudre deux problématiques en aménagement du territoire : - La problématique qui consiste à la recherche d?une surface satisfaisant au mieux certains critères, - La problématique qui consiste à la conception d?un réseau de polygones où chaque polygone détermine le type de l?utilisation du sol. Ces deux problématiques sont résolues en utilisant respectivement les deux méthodes multicritère de tri : le tri ordinal et le tri nominal. La problématique de tri consiste à formuler le problème en terme d?affectation d?objets à des classes prédéfinies, le tri est ordinal si les classes sont complètement ordonnées, et est nominal dans le cas contraire. La plupart des méthodes de tri multicritère d?aide à la décision sont basées sur une procédure d?agrégation. Les opérateurs d?agrégation utilisés la plupart du temps doivent satisfaire à l?hypothèse d?indépendance. Néanmoins, rares sont les cas où une hypothèse aussi forte est vérifiée, nous parlons alors d?interaction entre critères. L?originalité de notre travail est l?utilisation en aménagement du territoire de méthodes de tri multicritère basées sur l?introduction de concepts de mesures floues, mesures monotones, non-additives permettant de représenter la subjectivité humaine, et de l?intégrale floue. Plus précisément, nous avons utilisé l?intégrale de Choquet comme opérateur d?agrégation des préférences du décideur permettant de prendre en compte l?interaction parmi les critères (synergie et redondance parmi les critères). Nous avons aussi présenté un modèle utilisant un problème de satisfaction de contraintes, basé sur un ensemble d?exemples, qui permet d?identifier la mesure floue.
- ItemServeurs securises de simulation : Une Approche pour distribuer la simulation sur le Web(2008-02-17) MOKADDEM MostéfaCette thèse représente une des possibilités utiles pour le développement d'un environnement sécurisé multi-tiers de modélisation et de simulation distribuée avec l'aptitude d'évoluer avec toute Grande Challenge. Pour mettre en évidence les caractéristiques d'une telle simulation, il serait prudent de relever la complexité des tels modèles en commençant d'abord par exposer un exemple très concret de modèles Large Scale. Dans ce sens, Intégrer l'intelligence à la simulation s'avère inévitable, vu la complexité des modèles Large Scale auxquels s'intéresse la simulation actuellement. Cette intelligence se distingue par le fait que les modèles Large Scale sont eux mêmes de nature intelligente et qu'ils doivent être développés par des experts. Les concepts d'extensibilité et de systèmes ouverts référent à la réutilisabilité de modèles. C'est une clé principale dans le développement hiérarchique de modèles. Ce processus a besoin d'être intelligemment assisté. Les modèles et leurs couplages sont bien définis dans le formalisme DEVS. DEVS propose également la MAS (Méthodologie d'Approximations Successives) pour assurer l'extensibilité.
- ItemL'Approche Bond-Graph et la modélisation des systèmes d’information : Nouvelle approche orientée communication(2008-02-20) ABED BAHTOU BouazzaActuellement beaucoup de systèmes sont caractérisés comme étant des systèmes d?information modélisant différentes organisations. Pour de tels systèmes beaucoup de modèles ont été proposés, mais malheureusement aucun d?eux n?a apporté toutes les exigences pour la spécification de tels systèmes telles que : intégration des données et traitements, sémantique claire et précise, pouvoir de validation et vérification avant toute implémentation, etc. ... . Dans cette thèse, nous montrons que les bond-graphs qui représentent à l?heure actuelle la méthologie de modélisation la plus élaborée en ce qui concerne les systèmes physiques et dynamiques, peuvent être adaptés pour la spécification des systèmes d information. Cela demande en premier lieu un travail de traduction des concepts Bond-Graphs en leurs correspondants dans les systèmes d?information. En effet, en basant sur le concept d?objet, la méthode Bond-Graph n?est en sorte qu?une extension des méthodes Orientées-objets, avec cependant un certain nombre de différences. Tout d?abord les objets Bonds-Graph sont typés et possèdent un rôle évolutif, ensuite la communication entre les objet ne se fait plus par envoi de messages (communication bilatérale) mais par envoi d?information qui peut prendre ses deux formes duales : le type donnée ou le type traitement (communication à travers le réseau). De ces points, on peut remarqué que le schéma conceptuel dans les Bonds-Graph est plus riche que celle dans l?orientées-objet . Pour cette raison, on a consacré une grande partie de ce rapport à présenter les principaux concepts des méthodologies Orientées-Objet..
- ItemVérification des Protocoles Cryptographiques avec la Programmation Par Contraintes(2008-04-02) ARIBI NoureddineCette thèse propose des voies pour améliorer la véri cation automatique des protocoles cryptographiques.En premier, nous introduisons un état de l'art de l'ensemble des techniques de vérication organisés en deux classes : celles basées sur la recherche de preuve mathématique et celles basées sur la recherche d'attaque.Au niveau preuve mathématique, nous avons adopté l'interprétation abstraite qui a l'avantage de faire la preuve automatique, contrairement aux autres approches qui font appel aux prouveurs semiautomatiques. Nous avons prouvé le protocole de Needham-Schroeder à clé privée en s'inspirant à la fois des travaux de Goubault sur l'utilisation de la logique d'ordre un pour les besoins de la véri cation des protocoles, et des travaux de Blanchet sur l'interprétation abstraite. Cette approche qui est très représentative de la classe des approches de recherche de preuve, s'est avérée très lourde au niveau modélisation, et surtout coûteuse en temps de véri cation, car l'espace de recherche est fortement exponentiel. C'est ainsi que nous avons exploré les approches basées sur la recherche d'attaque qui appréhende un sous-ensemble de l'espace réel de recherche. Au niveau recherche d'attaque, nous avons adopté la démarche de Compagna qui consiste à modéliser la problématique de recherche d'attaque sous forme d'un problème de satis abilité SAT qui est résolu avec les outils performants tels que zChaff ou SAT4J. Dans cette modélisation, Compagna utilise une forme intermédiaire basée sur la plani cation, sans pour autant faire appel aux outils de plani cation. Justement, nous proposons le codage direct de la problématique dans le langage de plani cation PDDL. Nous avons réussi à véri er le protocole de Needham-Schroeder à clé publique, le protocole LPD-MSR, et le protocole de Porte-monnaie électronique PME. Nous avons ainsi mis en évidence la puissance des démarches basées sur la recherche d'attaque. Plus particulièrement, nous pensons que les langages de plani cation apportent une grande souplesse au niveau modélisation, soutenus par ses outils performants de résolution basés sur les solveurs SAT, notamment BlackBox et SatPlan.
- ItemVers la réplication universelle(2008-06-11) BELKACEMI AliLe travail présenté dans cette thèse s?inscrit dans le cadre de la réplication. Nous avons d?abord présenté les notions de bases de données et de systèmes de gestion de bases de données. Ensuite, nous avons montré la différence entre la copie, la sauvegarde et la réplication, qui elles-mêmes assurent une partie de la sécurité des données, puis nous avons mis en évidence l?avantage de la réplication par rapport à la sauvegarde. Nous appelons réplication classique toute réplication mono SGBD. Tous les aspects de la réplication classique ont été présentés. Une analyse de l?évolution du monde informatique a montré les limites de la réplication classique. Pour combler ce déficit, nous avons présenté une ébauche de l?UDR. La solution présentée fait abstraction des systèmes d?exploitation utilisés, des SGBD dans lesquels les réplicas sont définis, et des supports utilisés. Elle permet une réplication multi SGBD, multi supports, multi systèmes d?exploitation.
- ItemSystèmes temporisés, Spécifications et vérifications : Optimisation du coût de la vérification(2008-06-14) KLOUCHE-DJEDID AfafAfin de spécifier et de vérifier les systèmes temporisés ; systèmes distribués temps réel, nous avons étudié deux formalismes puissants que sont :"Les automates temporisés introduits par R.Alur et D.Dill "L'algèbre des processus temporisés ATP par J.Sifakis et X.Nicollin . Ceux-ci étant inhérents du fait que l'on peut traduire une expression algébrique ATP en un graphe temporisé ; c'est la compilation ATP ' graphes temporisés. Avec une introduction aux systèmes de transitions étiquetés, introduits par André Arnold et à l'algèbre des processus communicants ACP introduite par Bergstra et Klop ;Ces derniers étant encore dépourvus de la notion du temps et de délais, qui s'imposent actuellement dans les systèmes distribués temps réel ou temporisés ( ex des systèmes embarqués ,protocoles de communication, services Web, monitoring system, circuits logiques ?) Le problème fondamental qui se pose, pour les automates temporisés et leur représentation en mémoire est l'explosion combinatoire lorsqu'il s'agit de cas réels.En effet le nombre de configuration possibles d'un système temporisé, celui-ci étant obtenu par l'opération de composition parallèle
- ItemProposition et intégration d'un modèle de dialogue dans un processus de construction d'interface homme machine(2008-06-20) TAHAR ABBES MounirLe travail présenté dans ce mémoire concerne l?ingénierie en Interaction Homme -Machine et repose sur le besoin de méthodes et modèles pour organiser et orienter la construction de systèmes interactifs. Par son aspect pluridisciplinaire, l?Interaction Homme -Machine met en jeu de nombreux acteurs, dont l?interrelation doit être clairement établie, l?utilisation de modèles permet d?éclaircir les relations entre ces différents acteurs, en donnant une description de haut niveau des éléments nécessaires au développement du système.