Thèses de Doctorat "Informatique"
URI permanent de cette collection
Parcourir par
Parcourir la collection Thèses de Doctorat "Informatique" par Titre
Voici les éléments 1 - 20 sur 215
Résultats par page
Options de tri
- ItemA neural approach for sentiment analysis in Algerian dialect(Université oran1, 2025-05-29) HAMADOUCHE KhaoulaOur research explores several fundamental aspects of natural language processing for sentiment analysis, with a focus on automatic corpus construction and sarcasm detection within the context of Algerian dialect.Specifically, we have adopted state-of-the-art techniques in deep learning, namely the BERT model (Bidirectional- Encoder Representations from Transformers). This research aims to address key challengesrelatedtounderstandingandprocessing linguistic nuances in Algerian Arabictextsbydesigningaplatformthat collects data from various social media sources and conducts sentiment analysistasks(polaritydeterminationandsarcasm detection). Methodologically,ourthesisemploys techniques including: (1) corpus extraction from social media, (2) the application of machine learning algorithms for sentiment classification, and (3) the integration of linguistic rules and deep learning models for sarcasm detection. The approaches we have used have allowed us to achieve satisfactory results that can extend to various applications in social media analysis, opinion extraction, and automated content analysis within arabophone communities, including the study of dialectal variations. This thesis underscores the importance of linguistic diversity in NLP researchand provides a foundation for future investigations in the field of dialectal sentiment analysis.
- ItemAL2UML/AL2B: UNE PLATEFORME POUR LA CONCEPTUALISATION DES TEXTES EN LANGUE ARABE DÉDIÉE À LA GÉNÉRATION DU DIAGRAMME DE CLASSE D'UML (VERS UNE FORMALISATION EN EVENT-B)(Université Oran 1 Ahmed Ben Bella, 2017-04-10) Bousmaha Ep. Ossoukine Kheira ZinebNotre thématique est une application du traitement automatique du langage naturel (TALN). Elle est consacrée à la présentation d'une plateforme et d'une stratégie qui nous permettent, i) un traitement linguistique de textes grâce à un ensemble de modules cohérents que nous avons conçu, et ii) une formalisation automatique de la modélisation conceptuelle à base d'approches hybrides s'appuyant sur des représentations intermédiaires. Les textes utilisés sont ceux de la spécification des besoins des Systèmes d'Information (SI). La semi-formalisation conceptuelle (AL2UML) s'est faite via le diagramme de classe d’UML; un langage largement répandu et normalisé. Ce formalisme présente l’avantage d’être maîtrisé par une importante communauté et constitue ainsi un moyen d’échange privilégié. Quant à la formalisation conceptuelle (AL2B), elle s'est faite à travers le langage formel évent-B; une spécification raffinée et exécutable. Notre plateforme permet de mener conjointement les activités de prétraitement linguistiques, de modélisation et de validation formelle. Le désir d'offrir à la communauté de TALN une plateforme qui automatise le processus intellectuel de l’expert pour générer une modélisation formelle semble intéressant. Cette problématique n’est pas récente. Elle a suscité et suscite encore un grand intérêt. L'originalité de notre travail est que ces textes sont en langue arabe.
- ItemAlgorithmes évolutionnaires multi-objectifs basés sur Pareto pour l'optimisation globale.(2024-06) BOUMAZA FaridCette thèse souligne l’importance cruciale de résoudre les problèmes d’optimisation multi-objectifs (MOPs) et propose deux algorithmes évolutifs novateurs pour surmonter les limitations des métaheuristiques axées sur un seul objectif. Le premier, nommé Optimisation Multi-Objectif Guidée par les Faucons de Harris (GMOHHO), intègre une archive externe pour stocker les solutions de Pareto optimaux, favorisant ainsi le concept d’élitisme. De plus, une stratégie de sélection basée sur l’Évolution Bi-Goal (BiGE) équilibre convergence et diversité de l’ensemble de Pareto. Le deuxième algorithme, l’Algorithme d’Optimisation Arithmétique Multi-objectif (MOAOA), utilise également un référentiel d’archive maintenu par la technique d’Epsilon-Dominance (ϵ-dominance). Intégrant une stratégie de sélection des leaders basée sur la distance de crowding, il guide la population vers des régions de recherche intéressantes, établissant ainsi un équilibre entre convergence et diversité au sein de l’ensemble de Pareto. Des tests approfondis sur différents benchmarks multi-objectifs, ainsi que la comparaison avec des méthodes couramment utilisées, mettent en évidence la supériorité de GMOHHO et de MOAOA en matière de convergence et de diversité.
- ItemAllocation des ressources dans les réseaux radio cognitifs(Université Oran1 Ahmed Ben Bella, 2019-03-29) BENGHABRIT NawelLes réseaux radio cognitifs (RRC) ont été introduits afin d'améliorer l'utilisation du spectre des fréquences radio en offrant une utilisation dynamique et opportuniste des bandes radio licenciées. Ils offrent la possibilité aux noeuds ne disposant pas de licence d'adapter dynamiquement leurs paramètres radio tels que la fréquence et la puissance de transmission en fonction de leurs besoins. Nous modélisons le problème d'allocation des fréquences dans les réseaux radio cognitifs en effectuant un contrôle simultané sur la puissance de transmission, fréquence centrale ainsi que la largeur de bande allouée pour un ensemble d'utilisateurs secondaires (utilisateurs sans licence), formant des liaisons secondaires et communiquant sur une bande radio licenciée. Ces utilisateurs partagent les bandes de fréquences avec un ensemble d'utilisateurs primaires disposant d'une licence pour l'exploitation de ces bandes, les transmissions cognitives peuvent s'effectuer en mode Overlay et Underlay sur des portions spectrales partiellement chevauchées. L'activité des utilisateurs secondaires ne doit pas altérer les communications primaires, et doit satisfaire la contrainte d'interférence physique SINR causée aux utilisateurs primaires ainsi qu'aux autres noeuds cognitifs. En raison de la difficulté du problème, nous proposons un schéma d'allocation pour les utilisateurs secondaires basé sur un algorithme génétique (WAGA Wireless Adaptative Genetic Algorithme), dans lequel les gènes des chromosomes représentent les paramètres reconfigurables des interfaces radio tels que la puissance de transmission, la fréquence utilisée et la largeur de bande allouée. En définissant un ensemble d'opérations génétiques sur les chromosomes, l'AG est habilité à rechercher un ensemble de paramètres radio qui maximisent la capacité totale du réseau RC. La faisabilité d'un schéma d'allocation doit satisfaire la contrainte d'interférence physique entre les différentes transmissions simultanées.
- ItemAmélioration de la performance de la détection d’intrusion dans les systèmes d’information(2023-06-04) LOUNIS OUARDAPolicy Interaction Graph Analysis (PIGA) est un outil de détection d'intrusion basé sur l'hôte. Celui-ci utilise la politique de contrôle d'accès obligatoire MAC de Linux pour construire le graph de flux d'information licites et utilise une politique de détection définie par l'administrateur pour extraire les comportements illicites du graph. La principale limite de cet outil est la génération d'une énorme base de signatures de comportements illicites, ce qui entraîne l'utilisation d'un grand espace mémoire pour le stockage. Notre objectif principal est de réduire cet espace mémoire tout en conservant l'efficacité de l'outil en termes de taux de détection d'intrusion et de fausses alarmes générées. Dans un premier temps, les interactions entre les deux nœuds du graphe ont été regroupées en une seule interaction. La notion de partition a été utilisée pour classer les chemins dans le graphe et a été compressée en utilisant un algorithme génétique. Une telle approche a montré son efficacité par rapport à l'approche proposée par Pierre Clairet, par laquelle le taux de détection obtenu était de 99,9%, et aucun faux-positif avec un taux de compression de la base de signatures de comportements illicites atteignant 99,44%. L'obtention de ces résultats est l'un des aspects critiques de la réalisation d’un système de détection d'intrusion efficace basé sur l'hôte. Une autre approche pour l’implémentation d’un HIDS a été réalisée. Elle est basée sur l’utilisation de la notion de similarité et utilise un seuil pour distinguer les traces systèmes qui définissent un comportement malicieux de celles qui définissent un comportement normal. Cette approche, testée sur deux bases de données ADFA-LD et NSL-KDD avec un seuil variable, a permis d’avoir de très concluants résultats.
- ItemAmélioration de la performance de TCP dans les réseaux mobiles ad hoc(Université Oran1 Ahmed Ben Bella, 2016-11-14) Douga YassineDe nos jours, le nombre d'utilisateurs mobiles utilisant le protocole de transport (TCP) sur des réseaux sans fil pour accéder à des services sur Internet tels que les services de streaming vidéo via HTTP est en croissance très rapide. A l’origine le protocole TCP a été conçu pour les réseaux filaires. Cependant, il souffre de quelques défauts sur les réseaux sans fil, tels que la dégradation de débit en raison de pertes aléatoires et de la connectivité intermittente. Dans cette thèse, un ensemble de techniques sont proposées pour améliorer les performances du protocole TCP sur les communications sans fil de bout en bout. L’approche proposée est une solution inter-couches qui intègre des informations à partir de la couche physique (la puissance de la force du signal et la valeur de bruit) avec le mécanisme de contrôle de perte de paquets TCP. La réalisation d’une telle approche laisse poser des sous problématiques très importantes, par exemple : sur une connexion multi- sauts, quelle puissance de force du signal et de bruit nous devons choisir ? Quel seuil faut- il considérer et comment peut-on estimer la meilleure valeur du RTT ? Les résultats des simulations effectuées ont prouvé que l’approche proposée donne de meilleures performances que les autres approches en matière de débit accompli dans un environnement sans fil. Dans la suite de notre travail, nous avons choisi d'appliquer notre première contribution sur les services de vidéo streaming adaptatif HTTP (HAS) afin d’améliorer la qualité d’expérience QoE des utilisateurs. Le streaming adaptatif HTTP (HAS) est une technique de streaming vidéo largement utilisé sur Internet que ça soit pour la vidéo à la demande (VoD) ou pour les services de streaming en direct. Elle utilise le protocole TCP en tant que protocole de transport. Dans ce genre de service, le protocole TCP divise la vidéo d’origine à l'intérieur du serveur en plusieurs segments de même durée. Ces segments sont transcodés en plusieurs niveaux de qualité. Dans cette thèse, nous avons proposé une approche de vidéo streaming adaptatif qui ajoute le feedback des utilisateurs ainsi que les paramètres du terminal (résolution, écran, batterie) au processus d'adaptation de la qualité vidéo à travers les paramètres du protocole TCP. Afin d’estimer la satisfaction des utilisateurs, nous avons utilisé le MOS (Mean Opinion Score) de l'utilisateur. L’approche a été testée dans des scénarios d’émulations et les résultats ont montré que l’approche proposée peut améliorer l'expérience des utilisateurs (satisfaction) sur ce type de service par rapport aux services de vidéo streaming adaptatif qui existent.
- ItemAmélioration de la qualité d'expérience dans les services de vidéo streaming pour les réseaux mobiles(Université Oran 1, 2025-12-10) SOUANE NAIMALa diffusion vidéo en continu représente une part significative du trafic Internet, en particulier sur les réseaux sans fil, où les fluctuations de bande passante l’instabilité du canal radio peuvent dégrader de manière significative la qualité d’expérience (QoE). Maintenir une QoE stable dans ces conditions constitue un défi important, malgré la large adoption du protocole Dynamique Adaptive Streaming over HTTP (DASH). Les algorithmes traditionnels d’adaptation du débit binaire (ABR) reposent principalement sur des règles fixes, ce qui limite leur capacité à s’adapter afficacement à la variabilité du réseau. Par conséquent, de nouvelles approches sont nécessaires pour optimiser la QoE et améliorer la satisfaction des utilisateurs, soulèvant la question de la manière de mesurer et d’améliorer efficacelent la QoE. Cette thèse se concentre sur l’amélioration de la QoE des utilisateurs du service de streaming vidéo sur les réseaux sans fil. Premièrement, nous proposons une approche basée sur l’apprentissage par renforcement profond appliqué au streaming DASH, qui ajuste dynamiquement la diffusion afin de maintenir une QoE perçue stable et élevée. Deuxièment, nous introduisons un cadre d’évaluation de la QoE de bout en bout intégré au système DASH, capable d’évaluer l’expérience utilisateur selon plusieurs mesures La stratégie d’adaptation proposée ajuste dynamiquement les transitions de qualité entre segments vidéo consécutifs pour optimiser la QoE perçue. La méthode a été évaluée via des simulations couvrant divers scénarios sans fil et contenus vidéo. Une analyse comparative avec les techniques ABR existantes montre des améliorations significatives de la stabilité du streaming et de l’éxpérience globale des utilisateurs. Par ailleurs, la thèse présente un cadre hybride d’évaluation de la QoE de bout en bout dans le système DASH, combinant des métriques objectives et le retour subjectif des utilisateurs. Le cadre prend en compte la qualité vidéo, le taux de changement de qualité, les interruptions de lecture et l’opinion des utilisateurs, en les agrégant dans un score pondéré aligné sur l’échelle MOS. Pour valider cette approche, une plateforme DASH avec connectivité sans fil et un serveur de streaming contenant des segments vidéo et des fichiers MPD a été mise en place. Des expériences comparatives avec des algorithmes ABR standards confirment que le cadre fournit une évaluation fiable et complète de l’éxpérience utilisateur dans diverses conditions réseau
- ItemAnalyse avancée des données d’un système RFID en vue de sa sûreté de fonctionnement(Université Oran1 Ahmed Ben Bella, 2019-01-31) BELKACEM ImadLes premières générations des systèmes RFID ont été déployées sur un seul site avec peu de lecteurs et peu d'étiquettes. Les nouveaux systèmes RFID sont devenus plus complexes couvrant plus de sites avec plusieurs lecteurs, étiquettes, capteurs et un middleware qui gère la totalité du système. En outre, la RFID est utilisée pour des applications de plus en plus critiques. A cet effet, notre deuxième approche vise à augmenter le niveau de tolérance aux fautes dans le système RFID critique et distribué. Par conséquent, nous proposons l'utilisation de plusieurs mécanismes TF (FTM) sur les différentes couches du système afin de tolérer les défauts des composants matériels (lecteurs et capteurs), du middleware et du Service Web Lecteur (SWL). En plus de la redondance matérielle, la redondance logicielle, et précisément les blocs de recouvrement utilisant une méthode d'analyse supplémentaire, améliore la sûreté de fonctionnement de l'ensemble du système. L'Internet of Things (IoT) qui représente l'extension de l'Internet à des objets en intégrant plusieurs technologies a donné naissance à un grand volume de données. Dans notre troisième approche, nous exploitons la collaboration dans l'IoT entre les emplacements distants travaillant ensemble pour un objectif commun afin d'étudier le comportement des différents lecteurs RFID, iniateurs NFC (Near Field Communication), Beacons et des capteurs environnementaux situés dans les différents sites éloignés. Nous déployons des techniques d'analyse de données qui permettent d'améliorer la qualité des données récupérées en sélectionnant les noeuds les plus fiables.
- ItemAnalyse d'opinions dans les textes arabes(Université oran1 Ahmed Ben Bella, 2021-09-29) BEHDENNA SalimaCette thèse s'intéresse à l'analyse d'opinions arabe au niveau des aspects, plus précisément, elle porte sur les deux premières tâches définies dans la compétition SemEval2014-ABSA à savoir : l'extraction des termes d'aspect et l'identification de la polarité de ces termes. Ces deux tâches sont difficiles à réaliser en raison de la grande variabilité sémantique des opinions exprimées, de la diversité des aspects et les mots d'opinions utilisés pour exprimer les sentiments à propos ces aspects. Les travaux de cette thèse se focalisent sur l'étude des opinions explicites et implicites. Notre première contribution traite le cas explicite ; nous proposons une approche sémantique pour l'extraction des termes d'aspect explicites et l'identification de leur polarité à partir des expressions subjectives. Notre objectif est l'amélioration des performances de l'analyse d'opinions ciblée arabe en considérant la sémantique des opinions exprimées sur les aspects. La méthode proposée s'appuie sur l'utilisation d'une ontologie de domaine combinée avec les modifieurs de polarité. La logique descriptive a été choisie comme formalisme de représentation de l'ontologie, d'une part pour conceptualiser les connaissances du domaine et d'autre part pour identifier les entités, les aspects et les opinions afin d'améliorer l'analyse d'opinions ciblée arabe. Les résultats obtenus sont très encourageants et la comparaison avec l'approche de base (Al-Smadi et al.,2015) a permis de constater une amélioration de 19% en termes de F1-mesure pour la tâche d'extraction des termes d'aspect et une amélioration de 55% en termes d'exactitude pour l'identification de la polarité des termes d'aspect. Notre deuxième contribution, traite le cas implicite. Une des raisons pour lesquelles il est difficile d'analyser les opinions provient des expressions objectives et métaphoriques qui peuvent évoquer implicitement des opinions ce qui ajoute un niveau supplémentaire d'ambiguïté dans la polarité du texte surtout avec la langue arabe qui utilise davantage les expressions métaphoriques que les autres langues. Nous nous intéressons donc ici à extraire les termes d'aspect qui sont implicites et à lever l'ambiguïté au niveau des mots d'opinion exprimant un sentiment dans un texte arabe. Nous proposons l'utilisation des capacités d'inférence de la logique de description combinée avec des règles linguistiques inspirées de (Ding et Liu, 2007) pour identifier les aspects implicites et identifer le sentiment exprimé avec des mots de polarité ambiguës. Les résultats expérimentaux sont très prometteurs et montrent l'efficacité de l'approche proposée avec une F1-mesure de 54,62 % et une précision de 87,28 % pour l'extraction des termes d'aspect et l'identification de la polarité des termes d'aspect respectivement.
- ItemAnalyse de la reconfigurabiité des systèmes en milieu industriel(Université Oran 1 Ahmed Ben Bella, 2017-04-16) Abdesselam IbtissamDans un système de supervision, une commande tolérante aux fautes est un module indispensable utilisé pour garantir la poursuite du fonctionnement des systèmes en présence de composants défaillants. Son principe est de baser sur les informations issues du module de diagnostic afin de surmonter la défaillance. Cela est possible en appliquant soit une stratégie d’accommodation du défaut (compensation de l’effet) ou bien une reconfiguration du système en remplaçant les éléments en défaut par d’autres éléments sains. Dans cette thèse, nous nous sommes intéressés à l’étude de la reconfiguration du système à travers les hypergraphes par deux approches. La première approche structurelle repose sur la vérification des deux propriétés d’observabilité et de contrôlabilité à partir de l’hypergraphe modifié, i.e. l’hypergraphe obtenu après l’élimination des hyperarêtes affectées par la défaillance, et la deuxième fonctionnelle consiste à établir un parcours ascendant de l’hypergraphe fonctionnel afin de suivre l’influence de la défaillance sur les objectifs attendus par le système. Le point fort de notre proposition réside dans l’utilisation de l’outil hypergraphe, qui permet de combiner plusieurs aspects de modélisation (structurel et fonctionnel) dans un seul schéma. Le niveau physique est laissé à l’outil bond-graph, dont nous présenterons également les règles de transformation vers l’hypergraphe. Afin de monter l’impact de l’approche proposée, un processus de génération de vapeur est utilisé pour illustrer les différentes étapes de modélisation et d’analyse de la reconfigurabilité.
- ItemAnalyse des propriétés temporelles de la privacité dans les busines protocoles(Université Oran1 Ahmed Ben Bella, 2013-05-02) Mokhtari Karima khadijaLes Protocoles standards de bases de la spécification des web services, tels que définis par le WC3 (SOAP et WSDL), installent un cadre minimum pour faire fonctionner un web service de base. D’autres aspects encore, doivent être adressés pour le fonctionnement normal d’un web service ”réel” (c’est-à-dire un web service déployé dans un système réparti et accédé par des millions d’utilisateurs via internet). Parmi ces aspects on peut citer la sécurité, la gestion des transactions, la tolérance aux pannes et l’interaction avec d’autres web services. Ce dernier aspect, s’est avéré critique pour beaucoup de domaines notamment pour les systèmes d’informations du commerce électronique. En effet, le fichier wsdl expose l’interface des services proposés, mais une information cruciale manque pour le faire interagir correctement avec les autres partenaires. Cette information c’est ”la conversation”, c’est à dire la séquence correcte des appels des fonctions (méthodes, procédures) représentés par les messages WSDL. Pour résoudre ce problème la communauté de recherches sur les web services, propose le concept du business protocole (BP). L’idée générale, c’est utiliser un modèle formel pour représenter la séquence correcte de l’envoi des messages d’entrées/sorties d’un web service, et de convoyer cette information avec le fichier WSDL pour que les autres web services (clients ou prestataires) puissent interagir correctement avec lui. Dans ce travail on propose de construire un modèle qui décrit un business protocole privé temporisé (BPPT), c’est-à-dire un business protocole qui exprime les exigences de la vie privée, appelée aussi privacité, mais qui prend en compte aussi les exigences temporelles. Ensuite on utilise les capacités formelles du modèle proposé pour vérifier la consistance et la satisfiabilité de ces exigences (temporelles et de privacité).
- ItemAnalyse et prédiction de l'impact de changement dans un système à objets(2007) ABDI Mustapha KamelLe développement des logiciels industriels consomme beaucoup de temps et de ressources. Malgré cela, les coûts de développement sont inférieurs aux coûts de maintenance. Ces derniers représentent un souci majeur, même pour des systèmes conçus avec des technologies récentes telle que l’orienté objet. En effet, dans les systèmes industriels, un flot continu de changements doit être pris en compte pour permettre la survie de ces systèmes. Le besoin de mettre à la disposition des responsables de la maintenance des outils permettant d’expliquer les mécanismes de propagation de changements au niveau du code source s’affirme de plus en plus. Nous proposons dans cette thèse une approche pour analyser et prédire les impacts des changements dans les systèmes à objets. Cette approche est à la fois analytique et expérimentale. La démarche que nous suivons consiste dans un premier temps, à choisir un modèle d’impact existant, pour ensuite l’adapter à notre contexte de travail. Une technique de calcul d’impact basée sur un méta-modèle (PTIDEJ) est développée. Des données récoltées sur des systèmes réels sont envisagées pour étudier empiriquement des hypothèses de causalité entre d’une part, des attributs internes de logiciels, et d’autre part, l’impact du changement. Afin d’évaluer notre approche, une étude empirique a été menée sur un système réel (BOAP) dans laquelle une hypothèse de corrélation entre le couplage et l’impact du changement a été avancée. Un changement a été porté sur le système et des métriques de couplage ont été extraites de ce système. L’hypothèse a été étudiée par le biais de techniques d’apprentissage automatique. Les résultats ont montré que le couplage d’importation, plus que d’autres types de couplage, influence l’impact du changement. Enfin, nous envisageons d’autres expérimentations sur d’autres systèmes afin de confirmer plus ces résultats.
- ItemAnnotation fonctionnelle de gènes par datamining inter-espèces des données d’expression, appliquée aux plantes(Université oran1 Ahmed Ben Bella, 2021-10-05) FYAD HoudaCes dernières décennies, le recours à l'Extraction des Connaissances à partir des Données (ECD) et plus particulièrement à la fouille de données (FDD), a trouvé son application dans des domaines divers avec des objectifs bien spécifiques, conduisant au développement de méthodes et d'outils aidant à la découverte et à l'extraction " pertinente " d'informations pour une meilleure compréhension des domaines. En biologie contemporaine, les projets de séquençage à haut débit ne cessent de croître à un rythme quasi exponentiel produisant continuellement des flux grandissant de données notamment dans les domaines "Omics" (génomique, protéomique et transcriptomique). De fait l'essor de ces technologies et en particulier celles des microarrays, fournit des quantités gigantesques d'informations sur l'expression de milliers de gènes de tous les organismes vivants stockées dans des banques de données telles que NCBI (National Center for Biotechnology Information) et EMBL (European Molecular Biology Laboratory). Ainsi, l'application de la FDD dans un tel domaine est devenue très courante. Les méthodes de Clustering, l'une des approches de la FDD, fournissent l'opportunité d'analyser ces données d'expression en regroupant les profils de gènes co-exprimés. Il est possible d'étudier : les niveaux d'un gène dans différentes conditions expérimentales, selon le stade de développement de l'organisme ou bien la nature d'un tissu ou d'un organe. Ce regroupement de données en clusters où les gènes ayant le même comportement au cours d'une expérience donnée se retrouvent dans un même groupe et donc ayant hypothétiquement une fonction identique est la finalité de l'annotation. Cependant, la quantité et la complexité de ces informations biologiques soulèvent des questions nécessitant des investigations pour y répondre (i) Quel algorithme de Clustering est le mieux adapté à ce type de données? A l'heure actuelle, il n'y a pas de consensus car cela dépend de la nature des datasets étudiés et de ce que le chercheur a formulé comme hypothèse en utilisant cette méthode. Dans ce contexte, une première contribution est décrite à travers une comparaison de plusieurs algorithmes de Clustering évalués par différentes mesures de validité internes et de stabilité sur un ensemble de données d'expression de gènes de trois plantes modèles sous stress salin. (ii) Comment déterminer la qualité des résultats obtenus? En effet, le Clustering permet de regrouper ces profils de gènes néanmoins il nécessite optimisation et ajout de connaissances pour un résultat qui serait plus en adéquation avec la réalité biologique. Dans cette optique, une deuxième contribution est présentée à travers une nouvelle approche appelée OBKML-GO qui combine à la fois l'aspect numérique et sémantique des données d'expression. Cette approche a été évaluée par des mesures internes et externes de validité sur des benchmarks référencés d'organismes de complexité différentes.
- ItemApplication de la redondance pour la surveillance par réseau de capteurs sans fil : Cas réseau de capteurs image sans fil(Université Oran1 Ahmed Ben Bella, 2014-06-29) Benabbassi YoussefCette thèse s’intéresse à la surveillance par réseau de capteurs sans fil. Elle vise à explorer le domaine du diagnostic des systèmes et de la détection d’anomalie. Notre objectif est de proposer une contribution dans le cadre de la surveillance des zones critiques par réseau de capteurs image sans fil. Particulièrement, on propose des solutions à la gestion de la diffusion d’alerte dans le réseau sans fil lors de détection d’intrusion en tenant en compte la contrainte de l’énergie. Nos algorithmes se basent sur la technique de la redondance. Nos contributions sont implémentées et testées sous les simulateurs Omnetpp et Castalia sur le modèle Wireless Image Sensor Model (WISN model) développé par le laboratoire d’informatique (LIUPPA) de l’université de Pau, France. Les résultats sont validés par le simulateur Omnet++/Castalia.
- ItemApplication de la théorie des fonctions de croyance à la fouille de données imparfaites : des données binaires aux données évidentielles(2024-10-07) CHALABI AhlemCes dernières années, une croissance exponentielle de la production de données a été observée, un phénomène qui devrait non seulement se maintenir mais également s’accélérer. Il est devenu impératif de pouvoir les traiter efficacement afin de tirer le meilleur parti des connaissances qu’elles renferment. Néanmoins, de nombreux défis persistent, notamment le nombre important de règles d’association produites par les algorithmes de fouille de données, ainsi que la qualité de ces connaissances produites. D’autre part, il est crucial de prendre en compte l’incertitude des données à traiter, car les algorithmes traditionnels ne prennent pas en charge l’imperfection. Dans ce contexte, nous proposons dans ce manuscrit deux nouvelles méthodes d’extraction de connaissances : -(1) Une méthode d’extraction de connaissances à partir de données binaires, basée sur les algorithmes Apriori et FP-growth. Cette méthode garantit une qualité et une pertinence des règles produites en utilisant la programmation par contrainte. Les métriques sont modélisées comme des contraintes dans le système du solveur. -(2) une seconde méthode sera proposée où sera pris en compte les imperfections des données et extrayant les items fréquents évidentiels en utilisant une structure arborescente en moins de temps. Pour se faire, dans nos tests, nous prenons en considération plusieurs paramètres tels que la consommation de mémoire, le temps d’exécution et le nombre d’items extraits.
- ItemApport de l'ingénierie des modèles pour le Datamining(Université Oran 1 Ahmed Ben Bella, 2020-02-27) MESKINE FatimaLe datamining est un domaine de recherche dont les travaux portent le plus souvent sur l'amélioration des algorithmes et des techniques. Cependant, le processus de datamining en lui-même manque d'une spécification formelle qui permet de le modéliser indépendamment des plateformes. L'ingénierie dirigée par les modèles (IDM) est une théorie basée sur l'utilisation des modèles pour le développement des systèmes informatiques, permettant d'améliorer visiblement leur productivité. MDA (Model Driven Architecture) est l'une des approches les plus répandues et formalisées de cette théorie. Afin de montrer l'apport de l'ingénierie des modèles pour le datamining, nous proposons une architecture support qui permet de positionner, classifier et uniformiser les travaux de recherches qui ont appliqué l'approche MDA ou l'un de ces aspects sur le datamining. Et dans le but de renforcer l'idée de modéliser le processus de datamining indépendamment des plateformes, nous proposons un nouveau paradigme pour réaliser un processus de datamining, en définissant un Framework MDA pour la modélisation et l'analyse du processus de datamining, afin de permettre aux utilisateurs de mieux mener leurs analyses. Dans cet objectif, nous retenons l'analyse de classification supervisée comme un exemple de technique de datamining et WEKA comme une plateforme de test.
- ItemApproach for energy management in industrial systems : use case : scheduling of automated guided vehicles in job-shop manufacturing system with energy constraints(Université Oran1 Ahmed Ben Bella, 2021-07-25) ABDERRAHIM MoussaIndustry 4.0 concepts are moving towards flexible and energy-efficient factories. For the same purposes, battery-based Automated Guided Vehicles (AGV) are used in flexible production lines as part of their material handling systems to allow greater control over transportation tasks. Therefore, an optimal battery management for these vehicles can significantly shorten lead times. In this thesis, a Job-shop scheduling problem in AGV based manufacturing facility is viewed as being mainly related to both the assignment of resource functions and the AGV batteries management. The studied Job-shop production cell has two types of resources: machines that manufacture products, and transportation vehicles that ensure the transfer of parts between these machines. To achieve this purpose, we use an approach that supports the expected results from the Industry 4.0, relying mainly on increasing productivity by makespan minimization, and improving energy use through management of transport vehicle batteries replenishment. This approach is based on two modified versions of the Variable Neighborhood Search algorithm (VNS), and a new mathematical formulation that improves the computation of the lower bound for the manufacturing process makespan. Finally, experimental tests will be conducted on enhanced instances of a widely used literature benchmark to evaluate the efficiency of the implemented models.
- ItemApproche de spécification et validation de politiques RBAC au niveau des processus métiers(Université Oran 1 Ahmed Ben Bella, 2017-03-02) Chehida SalimLa spécification de politiques de contrôle d’accès constitue une étape cruciale dans la sécurité d’un Système d’Information. Le présent travail propose une approche qui combine les langages UML et B pour la spécification et la validation de politiques de contrôle d’accès basées sur le modèle RBAC (Role Based Access Control) au niveau des activités d’un processus métier. Notre approche commence par la spécification semi-formelle des règles de contrôle d’accès à l'aide de notre extension de diagrammes d'activités d’UML2 nommée BAAC@UML (Business Activity Access Control with UML). Les diagrammes d’activités sont définis à deux niveaux : un niveau abstrait qui ne détaille pas les règles d’autorisation et un niveau concret où des contraintes sont associées à certaines actions ou à l’ensemble du diagramme. Notre profil introduit les concepts de rôle et précondition contextuelle de contrôle d'accès pour garder l'accès des utilisateurs aux activités. Nous avons défini un méta-modèle en vue de spécifier la sémantique de nos diagrammes d’activités BAAC@UML ainsi que la sémantique de leurs liens avec les modèles SecureUML qui permettent la spécification de la vue statique d’une politique RBAC. Nous avons également proposé un ensemble de règles, exprimées en OCL, qui permet d’assurer la cohérence structurelle entre les modèles BAAC@UML et les modèles SecureUML. Les modèles BAAC@UML sont ensuite traduits en spécifications formelles exprimées en langage B. La spécification B définit un cadre rigoureux favorisant la vérification et la validation (V&V) de la politique RBAC. Nous avons utilisé l’animateur ProB et le prouveur Atelier B dans les activités de V&V. La preuve assure la conservation des contraintes de sécurité invariantes dans l’exécution de l’activité. L’animation permet de simuler l’exécution des scénarios d’activité par les utilisateurs et de vérifier que la politique RBAC est bien respectée au niveau des modèles d’activités.
- ItemApproche inter-couches pour l’économie d’énergie et la fiabilité dans les Réseaux de Capteurs Sans Fil dédiés aux Applications Critiques de Surveillance(Université oran1 Ahmed Ben Bella, 2018-07-02) BENZERBADJ AliLes Réseaux de Capteurs Sans Fil (RCSFs) constituent une classe particulière des réseaux Ad hoc, faisant l'objet de recherches intensives. Ils sont considérés comme un outil très puissant pour connecter le monde physique et le monde numérique. Ils se composent d'un grand nombre de noeuds capteurs dotés de ressources limitées en termes d'énergie, de portée de capture et de communication, de vitesse de traitement et de capacité de stockage. Ils sont déployés dans un environnement intérieur ou extérieur, et ce dans de nombreux domaines d'application tels que l'armée, l'environnement, la santé, la maison et l'agriculture. La rareté des ressources des noeuds capteurs et la non fiabilité des liaisons sans fil motivent la plupart des problématiques dans le domaine des RCSFs, à savoir l'énergie, la couverture, la connectivité, le routage, la tolérance aux pannes et la sécurité.L'objectif de cette thèse est de proposer un protocole de surveillance inter-couches, à efficacité énergétique et fiable, pour la surveillance des zones sensibles clôturées, tel qu'un site pétrolier ou nucléaire, utilisant les réseaux de capteurs sans fil avec un cycle d'activité, et avec prise en compte des liens asymétriques dus au phénomène de l'irrégularité de la radio. Initialement, le protocole proposé identifie les noeuds de bordure du RCSF pour les utiliser comme noeuds sentinelles, C'est à dire, des noeuds qui sont toujours dans un état actif. Les noeuds restants sont utilisés en tant que noeuds relais avec un cycle d'activité, pendant la phase de routage des alertes vers le noeud puits. Le processus d'identification des noeuds de bordure ainsi que le routage des alertes, sont assurés par le protocole Greedy Perimeter Stateless Routing throughSymmetrical Links (GPSR-SL) qui est une version améliorée du protocole GPSR, reposant sur un graphe de connectivité représenté sous forme de disques non-unité (N-UDG). Le protocole de surveillance inter-couches proposé a été implémenté et ses performances ont été évaluées en utilisant l'environnement de simulation OMNeT++/Castalia. Les résultats de performance montrent que ce protocole permet d'obtenir un ratio de livraison de paquets plus élevé d'environ 3.63%, une efficacité énergétique et une latence satisfaisante par rapport au même protocole basé sur le GPSR original.
- ItemApproches de l'intelligence artificielle pour la commande robuste des systèmes non linéaires(2015-02-05) Salem MohammedLa présente thèse est dédiée à l'application des techniques de l'intelligence computationnelle afin de palier aux limites de la commande sliding mode des systèmes non linéaires. En effet, les réseaux de neurones à fonctions de bases radiales (RBF) sont utilisés pour estimer les paramètres du modèle dynamique et compenser les incertitudes. Pour le développement d'un algorithme d'apprentissage des réseaux de neurones à bases radiales (RBF), nous avons opté en premier lieu pour les algorithmes évolutionnaires en considérant l'apprentissage d'un réseau de neurones RBF comme un problème d'optimisation. Pour y parvenir, nous avons amélioré deux algorithmes récents, l'algorithme d'optimisation par colonie d'abeilles artificielles (ABC) et l'algorithme de l'optimisation basée sur la biogéographie (BBO) en les hybridant avec un modèle prédateur et proies (P\&P) modifié. Les deux algorithmes obtenus (PMBBO et ABC-PP) ont été validés par des tests statistiques révélant ABC-PP comme le meilleur algorithme. Bien que l'application de l'algorithme ABC-PP pour l'apprentissage des paramètres d'un pendule inversé dans une commande sliding mode ait donné de bons résultats, elle n'a pas pu satisfaire le test de robustesse (Perturbations et incertitudes). Le deuxième algorithme développé est l'algorithme GAP-EKF qui est un algorithme d'apprentissage en ligne basé sur une stratégie de Growing and Pruning (GAP) pour contrôler le nombre des neurones cachés (égal à 0 au début) et un filtre de Kalman pour modifier les paramètres du réseau. L'algorithme GAP-EKF est combiné à un contrôleur flou dans une approche intelligente de commande slidng mode où GAP-EKF est utilisé pour calculer la commande équivalente tandis que la commande corrective est calculée par un contrôleur flou. L'approche proposée a été appliquée pour la commande d'un pendule inversé et ensuite un robot manipulateur SCARA. Les résultats obtenus sont très satisfaisants même en présence de perturbations et incertitudes.