Mémoires de Magister "Informatique"
URI permanent de cette collection
Parcourir par
Parcourir la collection Mémoires de Magister "Informatique" par Titre
Voici les éléments 1 - 20 sur 135
Résultats par page
Options de tri
- ItemAbstraction fonctionnelle des circuits par Isomorphisme de graphes(Université oran1 Ahmed Ben Bella, 2011-02-02) BOUCHAOUR Hamza ChérifCe travail contribue au développement de méthodes de reconnaissance et de compréhension de circuits, en s'appuyant sur des informations de bas niveau. Les graphes sont utilisés pour représenter mathématiquement la connaissance structurelle.L'intérêt de ce type de représentation est d'autant plus accru quand la taille des données ainsi que la complexité de leur organisation sont élevées.L'isomorphisme de graphes est un problème crucial en théorie et dans beaucoup d'applications.L'isomorphisme exact de graphes est un problème de décision de complexité d'au moins de classe P qui ne s'applique qu'à des graphes exactement identiques.Dans ce travail, nous introduisons une solution d'isomorphisme exact de graphes basée sur la programmation par contrainte. Pour cela, nous proposons un modèle de résolution basé sur le voisinage de premier degré. Nous proposons deux implémentations de ce modèle.Ces implémentations utilisent des opérateurs spéciques à la programmation par contrainte qui exploitent la structure de donnée représentant les graphes.Nous illustrons la validité de nos implémentations par une application concrète issue du domaine de la microélectronique, qui cherche à trouver un sous-circuit décrit par une Netlist de transistors à l'intérieur d'un ensemble de circuits plus général. Nous comparons ces implémentations en soulignant leurs avantages et inconvénients respectifs.
- ItemAide à la décision médicale : Planification guidée par Datamining et raisonnement à partir de cas(2012-06-28) BENBELKACEM SofiaL'Action médicale repose souvent sur la décision. Un processus d'aide à la décision médicale est une suite d'étapes décisives dont la finalité est l'amélioration de la qualité des soins apportés aux patients. De ce fait, les étapes de ce processus doivent être bien planifiées. Dans le domaine médical, les connaissances des experts ne sont pas basées uniquement sur des règles mais également sur des connaissances théoriques et sur leur expérience acquise. Le raisonnement à partir de cas est un paradigme de résolution de problèmes qui se base sur l'expérience passée. Pour cela de très nombreuses applications d'aide à la décision à base de RàPC ont été développées. C'est dans cette optique que nous nous sommes fixés l'implication des techniques de datamining et de raisonnement à partir de cas dans la planification de l'aide à la prise de décision médicale.
- ItemAlgorithmes et optimisations pour le diagnostic multi-faute(Université Oran1 Ahmed Ben Bella, 2010) BOUZIANI Lotfi GhilaneCe Mémoire présente une synthèse des méthodes de surveillance des systèmes complexes. Une étude détaillée est réalisée sur les approches existantes afin de les évaluer et de les comparer. On s’intéresse particulièrement au diagnostic sur la base des propriétés structurelles du système (méthode FDI) et on propose une extension de cette méthode A fin de prendre en compte les possibilités d’occurrence de plusieurs fautes simultanément. En effet, dans les systèmes industriels réels, plusieurs défaillances ou fautes peuvent apparaître simultanément et le but du diagnostic multi-faute (MFD) est d'identifier et de localiser ces fautes multiples. Dans le cadre de ce mémoire, deux approches différentes du diagnostic multi-faute sont étudiées et leurs algorithmes sont implémentés afin de comparer leurs propriétés et leurs résultats. Il s’agit de l’algorithme dit « exact » et d’un algorithme génétique. Nous verrons les avantages et les inconvénients de chacune des deux méthodes et dans quels cas utiliser l’une ou l’autre.
- ItemAnalyse des données d'un système RFID en vue de sa sûreté de fonctionnement(Université Oran1 Ahmed Ben Bella, 2011) BELKACEM ImadSûreté de fonctionnement; RFID; Tolérance aux fautes; Middleware; Services web; SOA. La Technologie RFID (Radio Frequency Identification) fait partie des technologies d'identification automatique. Les opérations de lecture et de détection et les mesures des capteurs sont inévitablement soumises aux erreurs. Nous étudions la tolérance aux fautes dans les systèmes RFID comme un moyen pour assurer la sûreté de fonctionnement. La tolérance aux fautes est l'ensemble des moyens pour que le logiciel fonctionne en dépit des différentes fautes (fautes physiques, fautes de conception, erreurs de l'utilisateur, fautes intentionnelles …). L'approche que nous développons consiste à concevoir un système de décision RFID distribué qui détecte et localise les défaillances en en comparant les résultats des inventaires des différents lecteurs, d'une part et d'autre part, comparer les résultats des différents capteurs homogènes en utilisant des techniques statistiques sur les résultats obtenus et permettre à l'application de détecter l'élément défectueux, corriger les fautes et continuer son exécution en présence de ces entraves. Pour tester et évaluer nos méthodes, nous avons conçu un mini-middleware SOARFID basé sur la SOA (Service Oriented Architecture) et nous avons intégré les modules d'analyse des données dans le module de filtrage et de collection.
- ItemAnalyse des Séries Temporelles de Coordonnées de Stations DORIS par la Transformée en Ondelettes(Université oran1 Ahmed Ben Bella, 2011-01-25) Bessissi ZahiaLe Thème développé à travers cette thèse consiste principalement à uneétude basée sur la transformée en ondelettes adaptées aux séries temporellesde coordonnées de stations DORIS (Détermination d'Orbite et Radio posi- tionnement Intégrés par Satellite) afin de tester la puissance ou lescapacités des ondelettes dans le cadre de l'étude de telles séries. Lesdonnées qui ont été mises à notre disposition par le LAREG (Laboratoire deRecherche en Géodésie) sont des jeux de coordonnées de stations DORIS issuesdu centre d'analyse IGN/JPL. La méthodologie adoptée comprend les étapessuivantes : - L'examen de la série temporelle (répartition des coordonnéesrésiduelles des stations pendant la période d'observation)- L'analyse de lasérie temporelle par la transformation en ondelette :"ondelette de Meyer"-Déterminer les signaux systématiques par l'analyse en ondelettes tels quepériodicité et tendance.- Application de la transformée en paquetd'ondelettes pour le débruitage du signal qui permet d'obtenir un signalbien filtré et plus lisse que le signal original.- Déterminer les singularités du signal à partir des local maxima line. Les résultats obtenusont démontré que :- Lorsque le nombre de satellites utilisés pour lepositionnement augmente, les coordonnées résiduelles (dE, dN, dH) desstations DORIS se stabilisent.se stabilisent.- Les ondelettes permettent dedétecter une tendance, une pente et des irrégularités à partir desapproximations, et d.identi.er des signaux périodiques à partir des détails.- L'analyse du signal de la série temporelle des coordonnées des stationsDORIS ont montré que des termes périodiques annuels et semi annuelsapparaissent clairement au niveau des détails et des coefficientsd'ondelettes des coordonnées des huit stations utilisées lors du traitement. - Une période de 118 jours ressorte du graphe du 4ème détail (d4) de lastation SYPB fournit une explication possible d'erreur sur la composante Zdu géocentre - L'application de la transformée en paquets d'ondelettes à lasérie temporelle des coordonnées des stations DORIS nous a permis d.une part, d'obtenir un signal filtré plus lisse, et d'autre part, de détecter desfluctuations représentant les grandes fréquences qui peuvent être la causede phénomènes parasites d'origine observationnelle, instrumentale ougéophysique.- La représentation temps-fréquence du signal nous donne unebonne représentation du contenue fréquentiel et fait apparaitre mieux toutesles perturbations et les mouvements périodiques, mais on peut distinguermieux l'évolution du signal du début vers la .n pour la station concaténéeSOCA-SODA-SODB, ce qui est invisible lorsque on étudie chaque solutionséparément (SODA et SODB).- Le débruitage de la série la plus récente(ign09wd01) révèle mieux le spectre de la série durant la période d'observation
- ItemAnalyse des stratégies de convergence en optimisation : Application en vision(Université oran1 Ahmed Ben Bella, 2011-10-10) MEDJAHED Seyyid AhmedL'Optimisation stochastique est très utilisée en vision par ordinateur. C'est particulièrement une approche adaptée pour résoudre les problèmes combinatoires de grandes tailles. En vision par ordinateur, l'appariement stéréoscopique est un problème combinatoire particulièrement difficile pour lequel une méthode stochastique a été proposée. Dans ce mémoire, nous évaluons plusieurs versions de cette méthode stochastique : avec et sans schéma de refroidissement. L'évaluation des performances de ces variantes est établie en terme de vitesse de convergence, qualité de la solution, proportion d'appariements corrects, proportion des mauvais appariements ainsi que les erreurs absolues et relatives. L'évaluation qualitative est aussi possible à travers les cartes de disparités qui sont calculées par les variantes de l'algorithme.
- ItemAnalyse Graphique pour la surveillance dans un réseau de capteurs sans fils (RCSF) Simulateur : OMNET++(2012-07-02) NIAR Leila ImaneLes Réseaux de capteurs sans fil attirent plus l'attention de la communauté de recherches. Ainsi la simulation est une démarche fréquemment utilisée pour tester et valider des approches, les environnements de simulation doivent pouvoir soutenir les différents modèles des réseaux de capteurs sans fil. Notre Thèse s'intéresse plus précisément au cas de surveillance des réseaux de capteurs. Le protocole testé est un protocole basé sur la reconfiguration des nœuds avec le principe de redondance pour garder une couverture de la zone et assurer une longue vie du réseau. La validation de l'approche est considéré suite à l'utilisation du simulateur OMNET++ puisque les résultats obtenus ont montré que le concept de l'approche au niveau de la tolérance aux pannes (avec le principe de réveiller les nœuds endormi en cas de panne ou d'épuisement d'énergie d'un nœud actif) assure un bon fonctionnement ainsi une longévité du réseau.
- ItemAnalyse, comparaison et évaluation des Algorithmes d'appariement(Université Oran1 Ahmed Ben Bella, 2011) HADJ DJELLOUL KheiraCe travail s'inscrit dans le cadre de la vision par ordinateur et plus précisément l'appariement stéréoscopique. L'appariement stéréoscopique ou mise en correspondance est l'un des secteurs les plus actifs de recherche dans la vision par ordinateur. Nous avons étudiés des algorithmes d'appariement emploient la corrélation, la programmation dynamique et une approche hiérarchique. Puis, nous avons mis en place un protocole de comparaison et d'évaluation repose sur sept critères. Le but de cette évaluation est de pouvoir comparer les performances des algorithmes d'appariement stéréoscopique.
- ItemApprentissage automatique et sécurité des systèmes d'information : Application : Un système de détection d'intrusion basé sur les séparateurs à vaste marge (SVM)(2008-06-29) AISSAOUI SihemDans ce travail, nous nous intéressons aux systèmes détection d?intrusions (IDS). Nous dérivons deux approches pour détecter les intrusions : les Séparateurs à Vaste Marge (SVM pour Support Vector Machines) et les réseaux de neurones. En utilisant l?ensemble de données KDD99 conçu par DARPA, nous démontrons qu?à partir ces deux approches, nous pouvons construire des classifieurs efficaces avec une bonne exactitude de classification pour la détection d?intrusion. Nous concluons avec une comparaison des performances des réseaux de neurones et SVM.
- ItemApproche Cryptographique basée sur les algorithmes génétiques pour la sécurité des réseaux Ad Hoc(Université Oran 1 Ahmed Ben Bella, 2009-04-25) BENHAOUA Mohamed KamelL'Exploitation de la force des algorithmes génétiques est basée sur l'aléatoire. Pour réaliser un algorithme cryptographique et sécuriser des communications dans les réseaux ad hoc en produisant des clés de session jetables, tout en définissant soigneusement dans chaque opérateur génétique (sélection , croisement ) la méthode la plus adaptée au problèmes desréseaux ad hoc par une évaluation intra proposition . L'opérateur de croisement est l'un des opérateurs les plus délicats pour les algorithmes génétique. Nous montrons ainsi les limitations des opérateurs de croisement classiques et nous présentons un nouvel opérateur de croisement inspiré de la génétique moderne nommé « Bestof2 » qui est capable de générer toujours des solutions plus adaptées a notre problème et d'une meilleure façon dans l'espace de recherche, dont le but est de converger rapidement vers la meilleur solution .Dans un deuxième temps nous donnons une comparaison a base de simulation de l'approche génétique avec les autres algorithmes cryptographiques les plus dominant actuellement(IDEA,RSA,PGP ) par une évaluation extra proposition pour conclure la position de l'approche para port au contraintes des réseaux ad hoc.
- ItemApproche Théorie des Graphes pour la Surveillance d’un Réseau de Capteurs sans fil(université Oran 1 Ahmed Ben Bella, 2007) BENAHMED KhélifaLes réseaux de capteurs sans fil (RCSF), sont des réseaux types Ad hoc, auto organisées et ne nécessitant pas d'infrastructure. Les entités formant un tel réseau doivent collaborer afin d'assurer le bon fonctionnement des ses services, tels que le routage, la couverture. Ils sont déployés généralement en une grande masse de noeuds capteurs dans des environnements hostiles. Dans de tels environnement, notre travail se penche sur la surveillance de ses réseaux, afin de garantir la continuité de leurs différents services et d'augmenter leur durée de vie. Nos travaux contribuent à l'étude de deux points précis de la surveillance d'un RCSF. Dans ce contexte, nous proposons des stratégies pour que le réseau devienne tolérant aux fautes. La première stratégie consiste en la prédiction des déconnexions entrainée par la mobilité ou l'échec des capteurs. Nous proposons une solution basée sur la recherche d'ensemble de chemins disjoints dans un graphe de connectivité. La deuxième concerne la détection des cibles faiblement à couverts, en testant la robustesse des liens de couverture qui assure une couverture minimale des cibles et exploite la redondance physique des capteurs, afin d'économiser l'énergie global du réseau en faisant basculer les noeuds capteurs entre les modes active et veille.
- ItemAspects E-learning dans les modèles d'ingénierie des connaissances, selon la méthode MASK(Université Oran 1 Ahmed Ben Bella, 2007) BENMAHAMED DjilaliDans le cadre de nos travaux, nous proposons une démarche qui lie ce processus d'explicitation et de capitalisation des savoirs et des savoir-faire métier développé autour des modèles MASK à celui de l'apprentissage et de l'approbation de ces connaissances appuyé par des scénarios pédagogiques qui décrivent le contenu du dispositif d'apprentissage un environnement informatique pour l'apprentissage humain, type E-Learning. Cette démarche s'articule autour des fondements des connaissances qu'encapsulent les modèles MASK et ceux de l'ingénierie pédagogique exploitables à travers les scénarios pédagogique. Après la définition d'un domaine d'étude, l'explicitation et la capitalisation des savoirs et des savoir-faire métiers du domaine via une modélisation MASK succèdent. A l'issue de cette étape, nous proposons trois formes de passage de ces modèles MASK vers des scénarios pédagogiques dont les éléments sont définis à base de la norme IMS - Learning Design. Ce recours à la normalisation renforce la scénarisation et répond à une vision de standardisation et de réutilisation du contenu du dispositif d'apprentissage. Après avoir vérifier l'intérêt des modèles MASK pour une telle démarche de conception et de définition d'un contenu d'EIAH type e-Learning à base des connaissances encapsulées dans ces modèles, nous proposons les trois résolutions puis nous faisons un choix argumenté. Notre choix est axé sur le modèle principale d'activités comme point de départ privilège pour l'extraction des aspects e-Learning, sous forme d'éléments IMS - Learning Design, à partir des modèles MASK qui découlent de ce modèle d'activités. Nous mettons en oeuvre, dans une étape suivante, cette contribution théorique de passage : nous arrêtons " la conduite de projets " comme domaine d'application, capitalisations les connaissances dans des modèles MASK, appliquons le processus de passage tel que nous l'avons conçu et aboutissons à un scénario pédagogique destiné aux acteurs du domaine à travers un environnement informatique pour l'apprentissage Humain, type E-Learning et décrit en IMS - LD.
- ItemCaractéristique biométrique pour l'identification(Université Oran1 Ahmed Ben Bella, 2016-04-07) BOUKRAA FatimaL'identification et la vérification des identités de personnes se sont imposées comme une approche de sécurisation dans un environnement où un individu pourrait avoir plusieurs. Nous utilisons l'empreinte digitale. L'extraction des minuties est une étape critique pour la performance d'un système d'identification et de vérification. Nous traitons deux méthodes : une méthode classique basée sur l'extraction des minuties depuis le squelette binaire de l'image d'empreinte digitale et une deuxième méthode basée sur l'extraction depuis l'image en niveau de gris.
- ItemChargement de données XML dans un Data Warehouse : Approches pour l'automatisation du Schema Matching(Université Oran1 Ahmed Ben Bella, 2010-06-17) KAHLOULA BoubakerLes systèmes d'information sont souvent caractérisés par une hétérogénéité et une distribution qui prennent de plus en plus d’ampleur au fil du temps. Des données sont exportées et importées en permanence d’un système vers l’autre pour leur permettre de communiquer entre eux. Les données proviennent fréquemment aussi du monde extérieur. Les données sont très souvent contenues dans un fichier XML et le système cible est en général une base de données relationnelle, ou plus particulièrement un Data warehouse. Les données existantes dans les fichiers XML sous un nom et un format donnés doivent être quelquefois renommées ou reformatées pour pouvoir être stockées puis exploitées à un niveau local. Ce travail fastidieux de Matching se fait encore couramment de façon manuelle. Il s’agit, dans le cadre de ce mémoire de Magister, d’une part, de la conception et du développement d’un système global de chargement de données XML dans un Data warehouse, d’autre part de donner un aperçu des techniques et prototypes qui ont été proposés jusqu’ici pour l’automatisation du Schéma Matching et en relever les spécificités. La conception du système - auquel nous avons donné le nom de OpenX2DW – de chargement de données XML dans la base de données cible, tient compte par ailleurs de cette automatisation.
- ItemClustering dans les bases de données(2012-06-18) KHATIR NadjiaLa Classification non supervisée-Clustering- en Anglais est une étape importante du processus d'extraction de connaissance à partir de données (ECD). Elle vise à découvrir une structure intrinsèque d'un ensemble d'objets en formant des-Clusters- ou des regroupements qui partagent des caractéristiques similaires. L'augmentation de la dimension des données ces dernières décennies a eu des conséquences non négligeables sur les méthodes de traitement mises en œuvre. En effet, le nombre d'objets présents dans les bases de données a fortement augmenté ainsi que la taille de leurs descriptions. La santé, est un secteur où les données disponibles sont nombreuses et de nature variées (documents et rapports médicaux, fiches des patients, imagerie médicale, etc.) Ce mémoire est consacré à l'étude des méthodes et algorithmes de clustering sur des données médicales. Notre travail a pour une première contribution une plateforme pour l'application et la validation des algorithmes de clustering. La deuxième contribution réside dans l'évaluation statistique des résultats du clustering obtenus par les différents algorithmes sur des jeux de données de grande dimension d'expression des gènes. Nous proposons par la suite une méthode originale suffisamment générale basée sur les algorithmes de clustering, permettant la segmentation des images de sang microscopiques.
- ItemCo-Allocation des ressources dans les grilles de calcul(Université Oran1 Ahmed Ben Bella, 2011-02-03) MAKHLOUF Sid AhmedL'Exécution des applications sur plusieurs sites est l'une des caractéristiques des grilles de calcul. Plusieurs applications multi-sites nécessitent un accès simultané aux ressources hébergées dans des domaines administratifs autonomes. Ce problème est connu sous le terme de co-allocation des ressources. La réservation à l'avance est une technique efficace pour assurer la qualité de service. Elle permet aux applications d'obtenir un accès simultané aux ressources adéquates et garantit leur disponibilité au moment requis. Cependant elle génère un taux élevé de rejets de la part des fournisseurs de ressources, ce qui va réduire leur taux d'utilisation. Souvent les fournisseurs de ressources ne divulguent pas des informations privées concernant leur charge et leur puissance de calcul, alors il est souhaitable de disposer d'un mécanisme de co-allocation qui ne repose pas sur la disponibilité d'information globale. En raison de l'absence de contrôle centralisé et la nature dynamique de la disponibilité des ressources, un mécanisme de co-allocation devrait être hautement distribué et robuste aux changements dans l'environnement de grille. Afin de faire face aux défis liés à la co-allocation des ressources et le déploiement des applications dans les grilles de calcul, nous avons mis en œuvre un modèle de co-allocation des ressources qui repose sur les systèmes multi-agents. Nous avons évalué notre modèle par le biais de simulations. Pour ce faire, nous avons étendu le simulateur GridSim pour qu'il supporte l'exécution des applications dans des environnements multi-sites. Notre modèle est entièrement distribué et il supporte les trois politiques de co-allocation que nous avons développée à savoir : Co-allocation par planification des réservations, Co-allocation par renforcement de l'apprentissage et Co-allocation des ressources hybride. Nous avons montré à travers des simulations que nos politiques de co-allocation des ressources permettent d'optimiser les performances des applications des utilisateurs en termes de temps de réponse et d'attente et les performances des fournisseurs de ressources en termes de taux d'utilisation tout en gardant leurs capacités et leurs charges privées.
- ItemCodage paramétrique de la parole en vue de sa transmission sur Internet(2007-02-17) LACHACHI Nour-EddineLe codage de la parole exige la description pertinente et l'extraction précise d'informations du signal. Cela ne peut se faire qu'avec l'aide de théories et de techniques puissantes développées en traitement du signal dont la maîtrise requiert des connaissances très spécialisées. Par ailleurs, la grande complexité de la parole nécessite des traitements particuliers liés à sa production et à sa perception. Le signal de parole étant porteur d'une information spécifique pour la communication entre le locuteur et l'auditeur, le mécanisme de celle-ci ne doit pas être ignoré lors de la réduction de débit. Le but principal de notre étude ne devait pas principalement développer des nouvelles techniques de codage, mais plutôt gagner la compréhension théorique dans les avantages et les inconvénients des techniques de codage et de trouver un motivation pour une approche permettant l’obtention d’une meilleure compréhension des étapes séparées d'un codeur de parole. Les sons de parole sont produits soit par les vibrations des cordes vocales (source de voisement), soit par l'écoulement turbulent de l'air dans le conduit vocal, où soit lors du relâchement d'une occlusion de ce conduit (source de bruit). On modélise un conduit vocal par une succession de tubes acoustiques de sections diverses qui peuvent être représenté par un filtre linéaire à paramètre variable dans le temps. Le signal vocal est numérisé à l’aide d’un convertisseur analogique/numérique. Comme la voix humaine est constituée d’une multitude de sons, souvent répétitifs, le signal peut être compressé pour réduire le temps de transmission, ainsi on parle de système de codage. Un système de codage de la parole comprend deux parties, un codeur et un décodeur. Le codeur analyse le signal pour en extraire un nombre réduit de paramètres pertinents qui sont représentés par un nombre restreint de bits pour archivage ou transmission. Le décodeur utilise ces paramètres pour reconstruire un signal de parole synthétique.
- ItemCommande à travers Internet en utilisant la synchronisation(Université Oran1 Ahmed Ben Bella, 2011-02-09) KADDOUR MohammedLes Systèmes commandés en réseau sont des systèmes automatiques (ou automatisés) traditionnels où les capteurs, contrôleurs, actionneurs et autres composants sont distribués autour d'un medium de communication et échangent des informations en respect de protocoles de communication. Toutefois, l'insertion de réseau de communication dans les chaînes d'action et de mesure dans les systèmes commandés en réseau induit une certaine complexité dans leur analyse (en termes de stabilité, robustesse et qualité de service,…) et leur conception. Ces problèmes relèvent, des inéluctables délais de communication, et des pertes de données pouvant survenir durant leurs transferts. Le but de ce mémoire est la mise en oeuvre d'une plate forme de commande d'un système en réseau. Il s'agit d'une implémentation informatique d'un système de type Maître-Esclave communiquant à distance par le moyen d'un réseau de type Internet. Notre plateforme consiste en une simulation sous Matlab Simulink d'un comportement de processus esclave dont on connaît son modèle. Ce processus va être commandé à distance à travers un réseau par le maître qui est simulé aussi. Le réseau dans cette stratégie est une source du retard variable (retard de transmission et de l'échantillonnage) et de perte de paquets. Pour connaître le retard en utilisant le protocole NTP (Network Time Protocol) qui permet de synchroniser les deux horloges (du maître et de l'esclave). Les paquets sont transmis avec un horodateur en utilisant l'UDP comme protocole de communication.
- ItemComparaison des Outils de Diagnostic par l'Analyse Structurelle et la Théorie des Observateurs(Université Oran1 Ahmed Ben Bella, 2010) DERDOUR YasmineLe Premier objectif de ce mémoire consiste à montrer l'efficacité de l'analyse structurelle dans le domaine de la surveillance en prenant en compte les contraintes du monde réel, et par conséquent, savoir exactement à quel niveau et à quel moment il faudra intervenir. Ce travail consiste à présenter un robot manipulateur à trois axes sur lesquels nous appliquons l'analyse structurale à des fins de diagnostic de pannes. L'analyse structurale offre la possibilité de transformer un modèle analytique en modèle structurel. Nous décrivons ce modèle à l'aide d'une matrice d'incidence qui représente toutes les composantes du système. A partir du graphe structurel obtenu, nous appliquons le couplage afin d'extraire des relations de redondance analytique qui seront mises dans une table de signature de pannes. A partir de cette description, l'objectif de cette méthode consiste à identifier les principales variables qui sont influentes et dépendantes de l'évolution du système. En outre, cette analyse permet de vérifier les propriétés de " détectabilité " et " localisabilité " structurelles. Notre deuxième objectif est l'applicabilité de la théorie de l'observation pour le diagnostic des systèmes dynamiques. L'observation de ces systèmes consiste en une estimation en temps réel de l'état présent, à partir de la connaissance des entrées et de la mesure des sorties, sur un intervalle de temps passé. En effet, ces mesures dans la réalité se font à l'aide de capteurs et sont souvent entachées de bruit généralement considérable. Cet inconvénient limite les performances d'une boucle de commande. Il est aussi parfois difficile de reconstituer l'état du système par déduction algébrique. Une des solutions pour résoudre le problème des bruits de mesure consiste à utiliser un observateur qui reconstruit la vitesse en fonction des entrées et des sorties du système considéré. Ce travail a pour finalité le diagnostic des systèmes linéaires et non linéaires ainsi que la détection et l'estimation des défauts rencontrés.
- ItemConception d'une plateforme d'ingénierie de maintenance guidée par les données : Application à la maintenance préventive et curative(Université oran1 Ahmed Ben Bella, 2010) BENAMEUR AbdelkaderDepuis son essor, la fonction maintenance n'a cessée d'évoluer. Elle est passée d'un simple service d'entretient lié à la production, à une activité à part entière, pour devenir l'une des fonctions essentielles de l'entreprise moderne qui participe à sa performance globale. L'idée présentée dans ce travail ici est motivée par le fait que l'application de l'extraction de connaissances en maintenance aura l'aptitude d'améliorer sa performance, et donc celle de toute l'entreprise. Plus précisément, une optimisation de la gestion des interventions en termes de planning, d'ordonnancement et de gestion de ressources peut être obtenue à travers l'analyse des pannes répétitives des équipements. Cette approche permet une stratégie de maintenance préventive de nature anticipative, qui permet à un expert de programmer des actions dans des moments opportuns, au lieu de suivre les stratégies de maintenance adoptées actuellement qui sont réactives, correctives (réparation ou remplacement après défaillance) ou systématiques basées sur le temps. Cette notion d'anticipation permet d'offrir des opportunités d'effectuer des tâches de maintenance dans les arrêts de production par exemple. Ainsi, les connaissances extraites, après avoir être validées, peuvent fournir une aide à la décision permettant de réduire les couts engendrés, d'améliorer l'efficacité des actions à entreprendre, de réduire l'indisponibilité des équipements et le nombre des retards, d'accroître la sécurité en plus d'avoir une compréhension plus approfondie sur plusieurs phénomènes. Nous présentons dans ce travail une plateforme d'ingénierie de maintenance assistée par apprentissage artificiel automatique. Dans la plateforme sera implémentée une approche d'apprentissage automatique cellulo-symbolique, appliquée dans le cadre général d'un processus d'Extraction de Connaissances à partir de Données de Maintenance (ECDM). Cette approche permet d'utiliser les données historiques acquises durant la maintenance et l'exploitation des outils de production pour extraire de nouvelles connaissances. Plusieurs algorithmes de fouille de données existent mais leur application sur des applications réelles est un challenge car plusieurs sous-problèmes doivent être adressés. Récemment, des travaux ont abordés cet aspect d'extraction de connaissances à partir des données de maintenance, ainsi que pour la prédiction des pannes. De notre part, nous désirons pousser cette idée, en adaptant les tâches du processus d'extraction de connaissances à cette problématique, et surtout en introduisant l'approche cellulaire, permettant une gestion optimale des connaissances à travers une modélisation booléenne. Grâce à cette approche, la pris en compte d'avantage de données sera possible, ainsi qu'une utilisation multiple et répétitive du processus d'ECDM offrant un raisonnement temporel et une exploration plus large de l'espace des problèmes.