Departement d'Informatique
URI permanent de cette communauté
Parcourir par
Parcourir la collection Departement d'Informatique par Titre
Voici les éléments 1 - 20 sur 350
Résultats par page
Options de tri
- ItemA neural approach for sentiment analysis in Algerian dialect(Université oran1, 2025-05-29) HAMADOUCHE KhaoulaOur research explores several fundamental aspects of natural language processing for sentiment analysis, with a focus on automatic corpus construction and sarcasm detection within the context of Algerian dialect.Specifically, we have adopted state-of-the-art techniques in deep learning, namely the BERT model (Bidirectional- Encoder Representations from Transformers). This research aims to address key challengesrelatedtounderstandingandprocessing linguistic nuances in Algerian Arabictextsbydesigningaplatformthat collects data from various social media sources and conducts sentiment analysistasks(polaritydeterminationandsarcasm detection). Methodologically,ourthesisemploys techniques including: (1) corpus extraction from social media, (2) the application of machine learning algorithms for sentiment classification, and (3) the integration of linguistic rules and deep learning models for sarcasm detection. The approaches we have used have allowed us to achieve satisfactory results that can extend to various applications in social media analysis, opinion extraction, and automated content analysis within arabophone communities, including the study of dialectal variations. This thesis underscores the importance of linguistic diversity in NLP researchand provides a foundation for future investigations in the field of dialectal sentiment analysis.
- ItemAbstraction fonctionnelle des circuits par Isomorphisme de graphes(Université oran1 Ahmed Ben Bella, 2011-02-02) BOUCHAOUR Hamza ChérifCe travail contribue au développement de méthodes de reconnaissance et de compréhension de circuits, en s'appuyant sur des informations de bas niveau. Les graphes sont utilisés pour représenter mathématiquement la connaissance structurelle.L'intérêt de ce type de représentation est d'autant plus accru quand la taille des données ainsi que la complexité de leur organisation sont élevées.L'isomorphisme de graphes est un problème crucial en théorie et dans beaucoup d'applications.L'isomorphisme exact de graphes est un problème de décision de complexité d'au moins de classe P qui ne s'applique qu'à des graphes exactement identiques.Dans ce travail, nous introduisons une solution d'isomorphisme exact de graphes basée sur la programmation par contrainte. Pour cela, nous proposons un modèle de résolution basé sur le voisinage de premier degré. Nous proposons deux implémentations de ce modèle.Ces implémentations utilisent des opérateurs spéciques à la programmation par contrainte qui exploitent la structure de donnée représentant les graphes.Nous illustrons la validité de nos implémentations par une application concrète issue du domaine de la microélectronique, qui cherche à trouver un sous-circuit décrit par une Netlist de transistors à l'intérieur d'un ensemble de circuits plus général. Nous comparons ces implémentations en soulignant leurs avantages et inconvénients respectifs.
- ItemAide à la décision médicale : Planification guidée par Datamining et raisonnement à partir de cas(2012-06-28) BENBELKACEM SofiaL'Action médicale repose souvent sur la décision. Un processus d'aide à la décision médicale est une suite d'étapes décisives dont la finalité est l'amélioration de la qualité des soins apportés aux patients. De ce fait, les étapes de ce processus doivent être bien planifiées. Dans le domaine médical, les connaissances des experts ne sont pas basées uniquement sur des règles mais également sur des connaissances théoriques et sur leur expérience acquise. Le raisonnement à partir de cas est un paradigme de résolution de problèmes qui se base sur l'expérience passée. Pour cela de très nombreuses applications d'aide à la décision à base de RàPC ont été développées. C'est dans cette optique que nous nous sommes fixés l'implication des techniques de datamining et de raisonnement à partir de cas dans la planification de l'aide à la prise de décision médicale.
- ItemAL2UML/AL2B: UNE PLATEFORME POUR LA CONCEPTUALISATION DES TEXTES EN LANGUE ARABE DÉDIÉE À LA GÉNÉRATION DU DIAGRAMME DE CLASSE D'UML (VERS UNE FORMALISATION EN EVENT-B)(Université Oran 1 Ahmed Ben Bella, 2017-04-10) Bousmaha Ep. Ossoukine Kheira ZinebNotre thématique est une application du traitement automatique du langage naturel (TALN). Elle est consacrée à la présentation d'une plateforme et d'une stratégie qui nous permettent, i) un traitement linguistique de textes grâce à un ensemble de modules cohérents que nous avons conçu, et ii) une formalisation automatique de la modélisation conceptuelle à base d'approches hybrides s'appuyant sur des représentations intermédiaires. Les textes utilisés sont ceux de la spécification des besoins des Systèmes d'Information (SI). La semi-formalisation conceptuelle (AL2UML) s'est faite via le diagramme de classe d’UML; un langage largement répandu et normalisé. Ce formalisme présente l’avantage d’être maîtrisé par une importante communauté et constitue ainsi un moyen d’échange privilégié. Quant à la formalisation conceptuelle (AL2B), elle s'est faite à travers le langage formel évent-B; une spécification raffinée et exécutable. Notre plateforme permet de mener conjointement les activités de prétraitement linguistiques, de modélisation et de validation formelle. Le désir d'offrir à la communauté de TALN une plateforme qui automatise le processus intellectuel de l’expert pour générer une modélisation formelle semble intéressant. Cette problématique n’est pas récente. Elle a suscité et suscite encore un grand intérêt. L'originalité de notre travail est que ces textes sont en langue arabe.
- ItemAlgorithmes et optimisations pour le diagnostic multi-faute(Université Oran1 Ahmed Ben Bella, 2010) BOUZIANI Lotfi GhilaneCe Mémoire présente une synthèse des méthodes de surveillance des systèmes complexes. Une étude détaillée est réalisée sur les approches existantes afin de les évaluer et de les comparer. On s’intéresse particulièrement au diagnostic sur la base des propriétés structurelles du système (méthode FDI) et on propose une extension de cette méthode A fin de prendre en compte les possibilités d’occurrence de plusieurs fautes simultanément. En effet, dans les systèmes industriels réels, plusieurs défaillances ou fautes peuvent apparaître simultanément et le but du diagnostic multi-faute (MFD) est d'identifier et de localiser ces fautes multiples. Dans le cadre de ce mémoire, deux approches différentes du diagnostic multi-faute sont étudiées et leurs algorithmes sont implémentés afin de comparer leurs propriétés et leurs résultats. Il s’agit de l’algorithme dit « exact » et d’un algorithme génétique. Nous verrons les avantages et les inconvénients de chacune des deux méthodes et dans quels cas utiliser l’une ou l’autre.
- ItemAlgorithmes évolutionnaires multi-objectifs basés sur Pareto pour l'optimisation globale.(2024-06) BOUMAZA FaridCette thèse souligne l’importance cruciale de résoudre les problèmes d’optimisation multi-objectifs (MOPs) et propose deux algorithmes évolutifs novateurs pour surmonter les limitations des métaheuristiques axées sur un seul objectif. Le premier, nommé Optimisation Multi-Objectif Guidée par les Faucons de Harris (GMOHHO), intègre une archive externe pour stocker les solutions de Pareto optimaux, favorisant ainsi le concept d’élitisme. De plus, une stratégie de sélection basée sur l’Évolution Bi-Goal (BiGE) équilibre convergence et diversité de l’ensemble de Pareto. Le deuxième algorithme, l’Algorithme d’Optimisation Arithmétique Multi-objectif (MOAOA), utilise également un référentiel d’archive maintenu par la technique d’Epsilon-Dominance (ϵ-dominance). Intégrant une stratégie de sélection des leaders basée sur la distance de crowding, il guide la population vers des régions de recherche intéressantes, établissant ainsi un équilibre entre convergence et diversité au sein de l’ensemble de Pareto. Des tests approfondis sur différents benchmarks multi-objectifs, ainsi que la comparaison avec des méthodes couramment utilisées, mettent en évidence la supériorité de GMOHHO et de MOAOA en matière de convergence et de diversité.
- ItemAllocation des ressources dans les réseaux radio cognitifs(Université Oran1 Ahmed Ben Bella, 2019-03-29) BENGHABRIT NawelLes réseaux radio cognitifs (RRC) ont été introduits afin d'améliorer l'utilisation du spectre des fréquences radio en offrant une utilisation dynamique et opportuniste des bandes radio licenciées. Ils offrent la possibilité aux noeuds ne disposant pas de licence d'adapter dynamiquement leurs paramètres radio tels que la fréquence et la puissance de transmission en fonction de leurs besoins. Nous modélisons le problème d'allocation des fréquences dans les réseaux radio cognitifs en effectuant un contrôle simultané sur la puissance de transmission, fréquence centrale ainsi que la largeur de bande allouée pour un ensemble d'utilisateurs secondaires (utilisateurs sans licence), formant des liaisons secondaires et communiquant sur une bande radio licenciée. Ces utilisateurs partagent les bandes de fréquences avec un ensemble d'utilisateurs primaires disposant d'une licence pour l'exploitation de ces bandes, les transmissions cognitives peuvent s'effectuer en mode Overlay et Underlay sur des portions spectrales partiellement chevauchées. L'activité des utilisateurs secondaires ne doit pas altérer les communications primaires, et doit satisfaire la contrainte d'interférence physique SINR causée aux utilisateurs primaires ainsi qu'aux autres noeuds cognitifs. En raison de la difficulté du problème, nous proposons un schéma d'allocation pour les utilisateurs secondaires basé sur un algorithme génétique (WAGA Wireless Adaptative Genetic Algorithme), dans lequel les gènes des chromosomes représentent les paramètres reconfigurables des interfaces radio tels que la puissance de transmission, la fréquence utilisée et la largeur de bande allouée. En définissant un ensemble d'opérations génétiques sur les chromosomes, l'AG est habilité à rechercher un ensemble de paramètres radio qui maximisent la capacité totale du réseau RC. La faisabilité d'un schéma d'allocation doit satisfaire la contrainte d'interférence physique entre les différentes transmissions simultanées.
- ItemAmélioration de la performance de la détection d’intrusion dans les systèmes d’information(2023-06-04) LOUNIS OUARDAPolicy Interaction Graph Analysis (PIGA) est un outil de détection d'intrusion basé sur l'hôte. Celui-ci utilise la politique de contrôle d'accès obligatoire MAC de Linux pour construire le graph de flux d'information licites et utilise une politique de détection définie par l'administrateur pour extraire les comportements illicites du graph. La principale limite de cet outil est la génération d'une énorme base de signatures de comportements illicites, ce qui entraîne l'utilisation d'un grand espace mémoire pour le stockage. Notre objectif principal est de réduire cet espace mémoire tout en conservant l'efficacité de l'outil en termes de taux de détection d'intrusion et de fausses alarmes générées. Dans un premier temps, les interactions entre les deux nœuds du graphe ont été regroupées en une seule interaction. La notion de partition a été utilisée pour classer les chemins dans le graphe et a été compressée en utilisant un algorithme génétique. Une telle approche a montré son efficacité par rapport à l'approche proposée par Pierre Clairet, par laquelle le taux de détection obtenu était de 99,9%, et aucun faux-positif avec un taux de compression de la base de signatures de comportements illicites atteignant 99,44%. L'obtention de ces résultats est l'un des aspects critiques de la réalisation d’un système de détection d'intrusion efficace basé sur l'hôte. Une autre approche pour l’implémentation d’un HIDS a été réalisée. Elle est basée sur l’utilisation de la notion de similarité et utilise un seuil pour distinguer les traces systèmes qui définissent un comportement malicieux de celles qui définissent un comportement normal. Cette approche, testée sur deux bases de données ADFA-LD et NSL-KDD avec un seuil variable, a permis d’avoir de très concluants résultats.
- ItemAmélioration de la performance de TCP dans les réseaux mobiles ad hoc(Université Oran1 Ahmed Ben Bella, 2016-11-14) Douga YassineDe nos jours, le nombre d'utilisateurs mobiles utilisant le protocole de transport (TCP) sur des réseaux sans fil pour accéder à des services sur Internet tels que les services de streaming vidéo via HTTP est en croissance très rapide. A l’origine le protocole TCP a été conçu pour les réseaux filaires. Cependant, il souffre de quelques défauts sur les réseaux sans fil, tels que la dégradation de débit en raison de pertes aléatoires et de la connectivité intermittente. Dans cette thèse, un ensemble de techniques sont proposées pour améliorer les performances du protocole TCP sur les communications sans fil de bout en bout. L’approche proposée est une solution inter-couches qui intègre des informations à partir de la couche physique (la puissance de la force du signal et la valeur de bruit) avec le mécanisme de contrôle de perte de paquets TCP. La réalisation d’une telle approche laisse poser des sous problématiques très importantes, par exemple : sur une connexion multi- sauts, quelle puissance de force du signal et de bruit nous devons choisir ? Quel seuil faut- il considérer et comment peut-on estimer la meilleure valeur du RTT ? Les résultats des simulations effectuées ont prouvé que l’approche proposée donne de meilleures performances que les autres approches en matière de débit accompli dans un environnement sans fil. Dans la suite de notre travail, nous avons choisi d'appliquer notre première contribution sur les services de vidéo streaming adaptatif HTTP (HAS) afin d’améliorer la qualité d’expérience QoE des utilisateurs. Le streaming adaptatif HTTP (HAS) est une technique de streaming vidéo largement utilisé sur Internet que ça soit pour la vidéo à la demande (VoD) ou pour les services de streaming en direct. Elle utilise le protocole TCP en tant que protocole de transport. Dans ce genre de service, le protocole TCP divise la vidéo d’origine à l'intérieur du serveur en plusieurs segments de même durée. Ces segments sont transcodés en plusieurs niveaux de qualité. Dans cette thèse, nous avons proposé une approche de vidéo streaming adaptatif qui ajoute le feedback des utilisateurs ainsi que les paramètres du terminal (résolution, écran, batterie) au processus d'adaptation de la qualité vidéo à travers les paramètres du protocole TCP. Afin d’estimer la satisfaction des utilisateurs, nous avons utilisé le MOS (Mean Opinion Score) de l'utilisateur. L’approche a été testée dans des scénarios d’émulations et les résultats ont montré que l’approche proposée peut améliorer l'expérience des utilisateurs (satisfaction) sur ce type de service par rapport aux services de vidéo streaming adaptatif qui existent.
- ItemAmélioration de la qualité d'expérience dans les services de vidéo streaming pour les réseaux mobiles(Université Oran 1, 2025-12-10) SOUANE NAIMALa diffusion vidéo en continu représente une part significative du trafic Internet, en particulier sur les réseaux sans fil, où les fluctuations de bande passante l’instabilité du canal radio peuvent dégrader de manière significative la qualité d’expérience (QoE). Maintenir une QoE stable dans ces conditions constitue un défi important, malgré la large adoption du protocole Dynamique Adaptive Streaming over HTTP (DASH). Les algorithmes traditionnels d’adaptation du débit binaire (ABR) reposent principalement sur des règles fixes, ce qui limite leur capacité à s’adapter afficacement à la variabilité du réseau. Par conséquent, de nouvelles approches sont nécessaires pour optimiser la QoE et améliorer la satisfaction des utilisateurs, soulèvant la question de la manière de mesurer et d’améliorer efficacelent la QoE. Cette thèse se concentre sur l’amélioration de la QoE des utilisateurs du service de streaming vidéo sur les réseaux sans fil. Premièrement, nous proposons une approche basée sur l’apprentissage par renforcement profond appliqué au streaming DASH, qui ajuste dynamiquement la diffusion afin de maintenir une QoE perçue stable et élevée. Deuxièment, nous introduisons un cadre d’évaluation de la QoE de bout en bout intégré au système DASH, capable d’évaluer l’expérience utilisateur selon plusieurs mesures La stratégie d’adaptation proposée ajuste dynamiquement les transitions de qualité entre segments vidéo consécutifs pour optimiser la QoE perçue. La méthode a été évaluée via des simulations couvrant divers scénarios sans fil et contenus vidéo. Une analyse comparative avec les techniques ABR existantes montre des améliorations significatives de la stabilité du streaming et de l’éxpérience globale des utilisateurs. Par ailleurs, la thèse présente un cadre hybride d’évaluation de la QoE de bout en bout dans le système DASH, combinant des métriques objectives et le retour subjectif des utilisateurs. Le cadre prend en compte la qualité vidéo, le taux de changement de qualité, les interruptions de lecture et l’opinion des utilisateurs, en les agrégant dans un score pondéré aligné sur l’échelle MOS. Pour valider cette approche, une plateforme DASH avec connectivité sans fil et un serveur de streaming contenant des segments vidéo et des fichiers MPD a été mise en place. Des expériences comparatives avec des algorithmes ABR standards confirment que le cadre fournit une évaluation fiable et complète de l’éxpérience utilisateur dans diverses conditions réseau
- ItemAnalyse avancée des données d’un système RFID en vue de sa sûreté de fonctionnement(Université Oran1 Ahmed Ben Bella, 2019-01-31) BELKACEM ImadLes premières générations des systèmes RFID ont été déployées sur un seul site avec peu de lecteurs et peu d'étiquettes. Les nouveaux systèmes RFID sont devenus plus complexes couvrant plus de sites avec plusieurs lecteurs, étiquettes, capteurs et un middleware qui gère la totalité du système. En outre, la RFID est utilisée pour des applications de plus en plus critiques. A cet effet, notre deuxième approche vise à augmenter le niveau de tolérance aux fautes dans le système RFID critique et distribué. Par conséquent, nous proposons l'utilisation de plusieurs mécanismes TF (FTM) sur les différentes couches du système afin de tolérer les défauts des composants matériels (lecteurs et capteurs), du middleware et du Service Web Lecteur (SWL). En plus de la redondance matérielle, la redondance logicielle, et précisément les blocs de recouvrement utilisant une méthode d'analyse supplémentaire, améliore la sûreté de fonctionnement de l'ensemble du système. L'Internet of Things (IoT) qui représente l'extension de l'Internet à des objets en intégrant plusieurs technologies a donné naissance à un grand volume de données. Dans notre troisième approche, nous exploitons la collaboration dans l'IoT entre les emplacements distants travaillant ensemble pour un objectif commun afin d'étudier le comportement des différents lecteurs RFID, iniateurs NFC (Near Field Communication), Beacons et des capteurs environnementaux situés dans les différents sites éloignés. Nous déployons des techniques d'analyse de données qui permettent d'améliorer la qualité des données récupérées en sélectionnant les noeuds les plus fiables.
- ItemAnalyse d'opinions dans les textes arabes(Université oran1 Ahmed Ben Bella, 2021-09-29) BEHDENNA SalimaCette thèse s'intéresse à l'analyse d'opinions arabe au niveau des aspects, plus précisément, elle porte sur les deux premières tâches définies dans la compétition SemEval2014-ABSA à savoir : l'extraction des termes d'aspect et l'identification de la polarité de ces termes. Ces deux tâches sont difficiles à réaliser en raison de la grande variabilité sémantique des opinions exprimées, de la diversité des aspects et les mots d'opinions utilisés pour exprimer les sentiments à propos ces aspects. Les travaux de cette thèse se focalisent sur l'étude des opinions explicites et implicites. Notre première contribution traite le cas explicite ; nous proposons une approche sémantique pour l'extraction des termes d'aspect explicites et l'identification de leur polarité à partir des expressions subjectives. Notre objectif est l'amélioration des performances de l'analyse d'opinions ciblée arabe en considérant la sémantique des opinions exprimées sur les aspects. La méthode proposée s'appuie sur l'utilisation d'une ontologie de domaine combinée avec les modifieurs de polarité. La logique descriptive a été choisie comme formalisme de représentation de l'ontologie, d'une part pour conceptualiser les connaissances du domaine et d'autre part pour identifier les entités, les aspects et les opinions afin d'améliorer l'analyse d'opinions ciblée arabe. Les résultats obtenus sont très encourageants et la comparaison avec l'approche de base (Al-Smadi et al.,2015) a permis de constater une amélioration de 19% en termes de F1-mesure pour la tâche d'extraction des termes d'aspect et une amélioration de 55% en termes d'exactitude pour l'identification de la polarité des termes d'aspect. Notre deuxième contribution, traite le cas implicite. Une des raisons pour lesquelles il est difficile d'analyser les opinions provient des expressions objectives et métaphoriques qui peuvent évoquer implicitement des opinions ce qui ajoute un niveau supplémentaire d'ambiguïté dans la polarité du texte surtout avec la langue arabe qui utilise davantage les expressions métaphoriques que les autres langues. Nous nous intéressons donc ici à extraire les termes d'aspect qui sont implicites et à lever l'ambiguïté au niveau des mots d'opinion exprimant un sentiment dans un texte arabe. Nous proposons l'utilisation des capacités d'inférence de la logique de description combinée avec des règles linguistiques inspirées de (Ding et Liu, 2007) pour identifier les aspects implicites et identifer le sentiment exprimé avec des mots de polarité ambiguës. Les résultats expérimentaux sont très prometteurs et montrent l'efficacité de l'approche proposée avec une F1-mesure de 54,62 % et une précision de 87,28 % pour l'extraction des termes d'aspect et l'identification de la polarité des termes d'aspect respectivement.
- ItemAnalyse de la reconfigurabiité des systèmes en milieu industriel(Université Oran 1 Ahmed Ben Bella, 2017-04-16) Abdesselam IbtissamDans un système de supervision, une commande tolérante aux fautes est un module indispensable utilisé pour garantir la poursuite du fonctionnement des systèmes en présence de composants défaillants. Son principe est de baser sur les informations issues du module de diagnostic afin de surmonter la défaillance. Cela est possible en appliquant soit une stratégie d’accommodation du défaut (compensation de l’effet) ou bien une reconfiguration du système en remplaçant les éléments en défaut par d’autres éléments sains. Dans cette thèse, nous nous sommes intéressés à l’étude de la reconfiguration du système à travers les hypergraphes par deux approches. La première approche structurelle repose sur la vérification des deux propriétés d’observabilité et de contrôlabilité à partir de l’hypergraphe modifié, i.e. l’hypergraphe obtenu après l’élimination des hyperarêtes affectées par la défaillance, et la deuxième fonctionnelle consiste à établir un parcours ascendant de l’hypergraphe fonctionnel afin de suivre l’influence de la défaillance sur les objectifs attendus par le système. Le point fort de notre proposition réside dans l’utilisation de l’outil hypergraphe, qui permet de combiner plusieurs aspects de modélisation (structurel et fonctionnel) dans un seul schéma. Le niveau physique est laissé à l’outil bond-graph, dont nous présenterons également les règles de transformation vers l’hypergraphe. Afin de monter l’impact de l’approche proposée, un processus de génération de vapeur est utilisé pour illustrer les différentes étapes de modélisation et d’analyse de la reconfigurabilité.
- ItemAnalyse des données d'un système RFID en vue de sa sûreté de fonctionnement(Université Oran1 Ahmed Ben Bella, 2011) BELKACEM ImadSûreté de fonctionnement; RFID; Tolérance aux fautes; Middleware; Services web; SOA. La Technologie RFID (Radio Frequency Identification) fait partie des technologies d'identification automatique. Les opérations de lecture et de détection et les mesures des capteurs sont inévitablement soumises aux erreurs. Nous étudions la tolérance aux fautes dans les systèmes RFID comme un moyen pour assurer la sûreté de fonctionnement. La tolérance aux fautes est l'ensemble des moyens pour que le logiciel fonctionne en dépit des différentes fautes (fautes physiques, fautes de conception, erreurs de l'utilisateur, fautes intentionnelles …). L'approche que nous développons consiste à concevoir un système de décision RFID distribué qui détecte et localise les défaillances en en comparant les résultats des inventaires des différents lecteurs, d'une part et d'autre part, comparer les résultats des différents capteurs homogènes en utilisant des techniques statistiques sur les résultats obtenus et permettre à l'application de détecter l'élément défectueux, corriger les fautes et continuer son exécution en présence de ces entraves. Pour tester et évaluer nos méthodes, nous avons conçu un mini-middleware SOARFID basé sur la SOA (Service Oriented Architecture) et nous avons intégré les modules d'analyse des données dans le module de filtrage et de collection.
- ItemAnalyse des propriétés temporelles de la privacité dans les busines protocoles(Université Oran1 Ahmed Ben Bella, 2013-05-02) Mokhtari Karima khadijaLes Protocoles standards de bases de la spécification des web services, tels que définis par le WC3 (SOAP et WSDL), installent un cadre minimum pour faire fonctionner un web service de base. D’autres aspects encore, doivent être adressés pour le fonctionnement normal d’un web service ”réel” (c’est-à-dire un web service déployé dans un système réparti et accédé par des millions d’utilisateurs via internet). Parmi ces aspects on peut citer la sécurité, la gestion des transactions, la tolérance aux pannes et l’interaction avec d’autres web services. Ce dernier aspect, s’est avéré critique pour beaucoup de domaines notamment pour les systèmes d’informations du commerce électronique. En effet, le fichier wsdl expose l’interface des services proposés, mais une information cruciale manque pour le faire interagir correctement avec les autres partenaires. Cette information c’est ”la conversation”, c’est à dire la séquence correcte des appels des fonctions (méthodes, procédures) représentés par les messages WSDL. Pour résoudre ce problème la communauté de recherches sur les web services, propose le concept du business protocole (BP). L’idée générale, c’est utiliser un modèle formel pour représenter la séquence correcte de l’envoi des messages d’entrées/sorties d’un web service, et de convoyer cette information avec le fichier WSDL pour que les autres web services (clients ou prestataires) puissent interagir correctement avec lui. Dans ce travail on propose de construire un modèle qui décrit un business protocole privé temporisé (BPPT), c’est-à-dire un business protocole qui exprime les exigences de la vie privée, appelée aussi privacité, mais qui prend en compte aussi les exigences temporelles. Ensuite on utilise les capacités formelles du modèle proposé pour vérifier la consistance et la satisfiabilité de ces exigences (temporelles et de privacité).
- ItemAnalyse des Séries Temporelles de Coordonnées de Stations DORIS par la Transformée en Ondelettes(Université oran1 Ahmed Ben Bella, 2011-01-25) Bessissi ZahiaLe Thème développé à travers cette thèse consiste principalement à uneétude basée sur la transformée en ondelettes adaptées aux séries temporellesde coordonnées de stations DORIS (Détermination d'Orbite et Radio posi- tionnement Intégrés par Satellite) afin de tester la puissance ou lescapacités des ondelettes dans le cadre de l'étude de telles séries. Lesdonnées qui ont été mises à notre disposition par le LAREG (Laboratoire deRecherche en Géodésie) sont des jeux de coordonnées de stations DORIS issuesdu centre d'analyse IGN/JPL. La méthodologie adoptée comprend les étapessuivantes : - L'examen de la série temporelle (répartition des coordonnéesrésiduelles des stations pendant la période d'observation)- L'analyse de lasérie temporelle par la transformation en ondelette :"ondelette de Meyer"-Déterminer les signaux systématiques par l'analyse en ondelettes tels quepériodicité et tendance.- Application de la transformée en paquetd'ondelettes pour le débruitage du signal qui permet d'obtenir un signalbien filtré et plus lisse que le signal original.- Déterminer les singularités du signal à partir des local maxima line. Les résultats obtenusont démontré que :- Lorsque le nombre de satellites utilisés pour lepositionnement augmente, les coordonnées résiduelles (dE, dN, dH) desstations DORIS se stabilisent.se stabilisent.- Les ondelettes permettent dedétecter une tendance, une pente et des irrégularités à partir desapproximations, et d.identi.er des signaux périodiques à partir des détails.- L'analyse du signal de la série temporelle des coordonnées des stationsDORIS ont montré que des termes périodiques annuels et semi annuelsapparaissent clairement au niveau des détails et des coefficientsd'ondelettes des coordonnées des huit stations utilisées lors du traitement. - Une période de 118 jours ressorte du graphe du 4ème détail (d4) de lastation SYPB fournit une explication possible d'erreur sur la composante Zdu géocentre - L'application de la transformée en paquets d'ondelettes à lasérie temporelle des coordonnées des stations DORIS nous a permis d.une part, d'obtenir un signal filtré plus lisse, et d'autre part, de détecter desfluctuations représentant les grandes fréquences qui peuvent être la causede phénomènes parasites d'origine observationnelle, instrumentale ougéophysique.- La représentation temps-fréquence du signal nous donne unebonne représentation du contenue fréquentiel et fait apparaitre mieux toutesles perturbations et les mouvements périodiques, mais on peut distinguermieux l'évolution du signal du début vers la .n pour la station concaténéeSOCA-SODA-SODB, ce qui est invisible lorsque on étudie chaque solutionséparément (SODA et SODB).- Le débruitage de la série la plus récente(ign09wd01) révèle mieux le spectre de la série durant la période d'observation
- ItemAnalyse des stratégies de convergence en optimisation : Application en vision(Université oran1 Ahmed Ben Bella, 2011-10-10) MEDJAHED Seyyid AhmedL'Optimisation stochastique est très utilisée en vision par ordinateur. C'est particulièrement une approche adaptée pour résoudre les problèmes combinatoires de grandes tailles. En vision par ordinateur, l'appariement stéréoscopique est un problème combinatoire particulièrement difficile pour lequel une méthode stochastique a été proposée. Dans ce mémoire, nous évaluons plusieurs versions de cette méthode stochastique : avec et sans schéma de refroidissement. L'évaluation des performances de ces variantes est établie en terme de vitesse de convergence, qualité de la solution, proportion d'appariements corrects, proportion des mauvais appariements ainsi que les erreurs absolues et relatives. L'évaluation qualitative est aussi possible à travers les cartes de disparités qui sont calculées par les variantes de l'algorithme.
- ItemAnalyse et prédiction de l'impact de changement dans un système à objets(2007) ABDI Mustapha KamelLe développement des logiciels industriels consomme beaucoup de temps et de ressources. Malgré cela, les coûts de développement sont inférieurs aux coûts de maintenance. Ces derniers représentent un souci majeur, même pour des systèmes conçus avec des technologies récentes telle que l’orienté objet. En effet, dans les systèmes industriels, un flot continu de changements doit être pris en compte pour permettre la survie de ces systèmes. Le besoin de mettre à la disposition des responsables de la maintenance des outils permettant d’expliquer les mécanismes de propagation de changements au niveau du code source s’affirme de plus en plus. Nous proposons dans cette thèse une approche pour analyser et prédire les impacts des changements dans les systèmes à objets. Cette approche est à la fois analytique et expérimentale. La démarche que nous suivons consiste dans un premier temps, à choisir un modèle d’impact existant, pour ensuite l’adapter à notre contexte de travail. Une technique de calcul d’impact basée sur un méta-modèle (PTIDEJ) est développée. Des données récoltées sur des systèmes réels sont envisagées pour étudier empiriquement des hypothèses de causalité entre d’une part, des attributs internes de logiciels, et d’autre part, l’impact du changement. Afin d’évaluer notre approche, une étude empirique a été menée sur un système réel (BOAP) dans laquelle une hypothèse de corrélation entre le couplage et l’impact du changement a été avancée. Un changement a été porté sur le système et des métriques de couplage ont été extraites de ce système. L’hypothèse a été étudiée par le biais de techniques d’apprentissage automatique. Les résultats ont montré que le couplage d’importation, plus que d’autres types de couplage, influence l’impact du changement. Enfin, nous envisageons d’autres expérimentations sur d’autres systèmes afin de confirmer plus ces résultats.
- ItemAnalyse Graphique pour la surveillance dans un réseau de capteurs sans fils (RCSF) Simulateur : OMNET++(2012-07-02) NIAR Leila ImaneLes Réseaux de capteurs sans fil attirent plus l'attention de la communauté de recherches. Ainsi la simulation est une démarche fréquemment utilisée pour tester et valider des approches, les environnements de simulation doivent pouvoir soutenir les différents modèles des réseaux de capteurs sans fil. Notre Thèse s'intéresse plus précisément au cas de surveillance des réseaux de capteurs. Le protocole testé est un protocole basé sur la reconfiguration des nœuds avec le principe de redondance pour garder une couverture de la zone et assurer une longue vie du réseau. La validation de l'approche est considéré suite à l'utilisation du simulateur OMNET++ puisque les résultats obtenus ont montré que le concept de l'approche au niveau de la tolérance aux pannes (avec le principe de réveiller les nœuds endormi en cas de panne ou d'épuisement d'énergie d'un nœud actif) assure un bon fonctionnement ainsi une longévité du réseau.
- ItemAnalyse, comparaison et évaluation des Algorithmes d'appariement(Université Oran1 Ahmed Ben Bella, 2011) HADJ DJELLOUL KheiraCe travail s'inscrit dans le cadre de la vision par ordinateur et plus précisément l'appariement stéréoscopique. L'appariement stéréoscopique ou mise en correspondance est l'un des secteurs les plus actifs de recherche dans la vision par ordinateur. Nous avons étudiés des algorithmes d'appariement emploient la corrélation, la programmation dynamique et une approche hiérarchique. Puis, nous avons mis en place un protocole de comparaison et d'évaluation repose sur sept critères. Le but de cette évaluation est de pouvoir comparer les performances des algorithmes d'appariement stéréoscopique.