AMINA 2000

 

Remonter

Sommaire

 

Réseaux de neurones, Logique Floue, Algorithmes génétiques dans les applications biomédicales (Zied GAFSI, Hanène BEN HAMMOUDA, Hassène FAIEDH, Néjib HASSEN, Kamel BESBES).

Description tridimensionnelle à partir de coupe scanner des os (Tarak Bennour et Faouzi Ghorbel).

Segmentation bayesienne par échantillonnage Bootstrap pour un diagnostique en temps réel (Leila Cammon, Slim Mhiri et Faouzi Ghorbel).

Méthodes, techniques et outils d'apprentissage automatique (Habib HADJ-MABROUK).

Implications technologiques des modèles connexionnistes inspirés de la neurobiologie (Hervé Frezza-Buet).

Le Concept d'Instrumentation Intelligente : Modèle générique et  interopérabilité d'instruments intelligents (Adam Bouras).

Inspiration des Neurosciences pour la mise au point de Modèles Connexionnistes ( Frédéric Alexandre).

Application des réseaux de neurones artificiels en asthmologie (Ikram EL ABED, Inès BAZDAH, Imed NACEUR,Sofia TAKTAK, Habib GHEDIRA).

Modélisation et détection des structures vasculaires dans des images médicales tridimensionnelles (Grégoire Malandain).

Fonctionnement cérébral et modèles cognitifs (Romain Martain).

Méthode de Surveillance Préventive Prévisionnelle par la logique floue : application à la médecine sportive(NABLI L., TOGUYENI A., CRAYE E.)

 

Réseaux de neurones, Logique Floue, Algorithmes génétiques dans les applications biomédicales

 Zied GAFSI, Hanène BEN HAMMOUDA, Hassène FAIEDH, Néjib HASSEN, Kamel BESBES

 Laboratoire d’Electronique et de Microélectronique (IT-06)

Faculté des Sciences de Monastir

Résumé : L’Ingénierie biomédicale est devenue un domaine de recherche et de développement à fort rendement. L’arrivée de nouvelles techniques de traitement de l’information comme les réseaux de neurones, la logique floue et les algorithmes génétiques donne de nouvelles possibilités aux systèmes biomédicaux utilisant l’intelligence artificielle.

En effet, ces techniques introduisent une approche plus souple et plus fiable dans le traitement de l’information. Les réseaux de neurones introduisent leurs capacités à s’adapter à la résolution des problèmes difficilement prévisibles par des modèles mathématiques. L’architecture et les techniques d’apprentissage sont les paramètres les plus déterminants dans les performances d’un réseau. Par ailleurs, Le réseau de neurone permet de supporter, par un apprentissage adapté, des règles dont l’origine se base principalement sur l’expérience tout en tenant compte des exceptions.

La Logique floue, quant à elle, permet de transposer un résonnement linguistique, comme le diagnostic, utilisant des affirmations différentes, définies à des taux variables, et d’en tirer des décisions. Le réseau de neurone peut servir comme support pour une telle technique.

Enfin, les algorithmes génétiques AGs, permettent à partir d’une masse importante d’informations de tirer par des méthodes d’optimisation l’information décisive sur une grandeur voulue.

Dans ce papier nous présentons quelques réflexions sur les supports possibles de ces techniques en ingénierie biomédicale. Les options soft ou hard, les architectures numériques analogiques ou mixtes sont des éléments à développer.

Haut

Méthodes, techniques et outils d'apprentissage automatique

Habib HADJ-MABROUK

Institut National de Recherche sur les Transports et leur Sécurité

mabrouk@inrets.fr

Résumé : Le processus de transfert de connaissances des experts humains vers la machine est complexe et peu étudié. En effet, le goulot d'étranglement du développement d'un système expert ne se limite pas à la seule phase d'extraction de connaissances mais est également lié aux caractéristiques et à la formalisation des connaissances ainsi qu'à la collaboration entre l'expert et le cogniticien. Le savoir-faire des experts repose sur des connaissances subjectives, empiriques et parfois implicites qui peuvent générer plusieurs interprétations. Il n'existe généralement pas d'explication scientifique pour justifier cette expertise compilée. Ces connaissances ne sont pas toujours conscientes chez l'expert, compréhensibles par un novice ou même exprimables par l'intermédiaire d'un langage. La transcription d'un langage verbal (naturel) en langage formel interprétable par une machine provoque souvent une distorsion de la connaissance experte. Ceci introduit un biais entre le modèle cognitif de l'expert et le modèle implémenté.

Ce décalage est dû non seulement au fait que les langages de représentation employés en ia ne sont pas d'une richesse suffisante pour expliciter le fonctionnement cognitif de l'expert mais aussi à l'interprétation subjective du cogniticien. Toutes ces contraintes restreignent le champ d'investigation des méthodes d'acquisition de connaissances. L'utilisation des techniques d'apprentissage automatique est une solution pour affaiblir ces contraintes. En effet, si la psychologie cognitive et le génie logiciel ont généré des méthodes et outils d'aide à l'acquisition des connaissances, l'exploitation de ces méthodes demeure encore limitée, dans un contexte industriel complexe. Les experts considèrent généralement qu'il est plus simple de décrire des exemples ou des cas expérimentaux plutôt que d'expliciter des processus de prise de décision. L'introduction des systèmes d'apprentissage automatique fonctionnant sur des exemples permet d'engendrer de nouvelles connaissances susceptibles d'aider l'expert à résoudre un problème particulier. L'expertise d'un domaine est non seulement détenue par les experts mais aussi répartie et emmagasinée implicitement dans une masse de données historiques que l'esprit humain éprouve des difficultés à synthétiser. Extraire de cette masse d'informations des connaissances pertinentes dans un but explicatif ou décisionnel constitue l'un des objectifs de l'apprentissage automatique.

L'apprentissage automatique (Machine Learning) est une branche importante de la recherche dans le domaine de l'Intelligence Artificielle. L'apprentissage est un terme très général qui décrit le processus selon lequel l'être humain ou la machine peut accroître sa connaissance. Apprendre c'est donc raisonner : découvrir des analogies et des similarités, généraliser ou particulariser une expérience, tirer parti de ses échecs et erreurs passés pour des raisonnements ultérieurs. Les nouveaux acquis sont utilisés pour résoudre de nouveaux problèmes, accomplir une nouvelle tâche ou accroître les performances dans l'accomplissement d'une tâche existante, expliquer une situation ou prédire un comportement.

Les efforts menés dans ce domaine pour appréhender les problèmes de regroupement, de discrimination et de généralisation d'objets ont débouché sur une grande variété de méthodes, techniques, algorithmes et systèmes. Ce foisonnement rend difficile la perception du domaine, compte tenu de l'ambiguïté du vocabulaire qui lui est propre et de l'absence de définitions de référence. Ceci a conduit certains chercheurs à développer des approches de caractérisation et de modélisation du processus d'apprentissage. Si ces approches présentent un intérêt sur le plan scientifique pour dégager des voies de recherche et des besoins futurs en matière d'apprentissage, elles ne permettent pas d'orienter l'utilisateur dans le choix d'un système d'apprentissage adapté à une application industrielle donnée.

Sur la base des travaux existants, notre contribution vise à synthétiser les concepts fondamentaux impliqués dans le processus d'apprentissage. La première partie propose donc une caractérisation générale du processus d'apprentissage en précisant ses données d'entrée et de sortie, les contraintes qu'il doit respecter ainsi que les mécanismes employés pour apprendre. La deuxième partie présente plusieurs exemples d’applications des techniques d'apprentissage automatiques.

Haut

Implications technologiques des modèles connexionnistes inspirés de la neurobiologie

Hervé Frezza-Buet, Supélec, France

Herve.Frezza-Buet@supelec.fr

Résumé : Les sciences cognitives visent à la compréhension des « mécanismes » de la pensée, profitant dans un cadre pluridisciplinaire d’interactions entre la psychologie, la biologie du comportement, la neurobiologie, et l’informatique. L’intérêt académique de cette approche conjointe est reconnu en ce qui concerne les sciences cognitives, l’informatique intervenant comme une science du modèle pour rendre compte de données expérimentales et proposer aux biologistes et psychologues des mécanismes inspirés de paradigmes biologiques. En revanche, en ce qui concerne l’évolution de l’informatique, discipline qui comprend diverses techniques de traitement de l’information dont la plupart sont opérationnelles et couramment employées dans l’industrie, l’apport de la neurobiologie et de la psychologie reste parfois à défendre.

Le propos de cette conférence sera alors d’illustrer l’intérêt de l’inspiration neurobiologique pour l’informatique, même si cette voie de recherche n’a pas encore la maturité d’autres techniques plus « traditionnelles ». L’inspiration neurobiologique permet en effet d’envisager de nouveaux paradigmes du traitement de l’information, ainsi que leurs retombées industrielles. Différentes approches disponibles dans la littérature seront présentées, ainsi que l’étude plus détaillée des travaux de recherches menés à Supélec sur ce thème.

Haut

Le Concept d'Instrumentation Intelligente : Modèle générique et  interopérabilité d'instruments intelligents

Adam Bouras, IPEIM, Monastir

Adam.Bouras@ipeim.rnu.tn

 

Résumé : L'expression "instrumentation intelligente" est apparue à partir du moment  où les instruments de terrain mis en œuvre dans les système automatisés " capteurs et actionneurs " ont disposé de leur propre puissance de traitement grâce au développement des microprocesseur et micro-controleurs. Toutefois le terme "intelligent" ne doit pas prêter à confusion. Cet adjectif qualifie ici des objet finalisés dont la vocation initiale, grâce aux possibilités de traitement offertes par la micro-électronique, s'est élargie jusqu'à la participation à un certain nombre de fonctionnalités relevant à l'origine du système d'automatisation dans sont ensemble. Étant donné le foisonnement des possibilités de traitement offertes et la diversité des origines de ce type d'équipement, il est impératif que soient définies des règles de conception permettant de garantir une interopérabilité entre les différents instruments. Dans ce travail nous cherchons à faire reposer la définition des critères d'interopérabilité sur une démarche formelle indépendante aussi bien des structure internes des instruments utilisés que du support de communication choisie.

Haut

Inspiration des Neurosciences pour la mise au point de Modèles Connexionnistes

 Frédéric Alexandre, LORIA-INRIA, FRANCE

falex@loria.fr

 

Résumé : Les données, toujours plus nombreuses et plus précises, issues des différents domaines des neurosciences, permettent aujourd'hui de proposer des nouveaux modèles de traitement automatique de l'information basés sur le paradigme neuronal principalement. Ces modèles exploitent en particulier les propriétés de calcul numérique, adaptatif et distribué. Nous proposons dans cet exposé une présentation de tels modèles, de leurs propriétés et de leurs applications potentielles.

Les modèles de réseaux de neurones artificiels ont depuis longtemps montré leurs capacités sur des tâches de traitement statistique de données. Ces capacités sont aujourd'hui étendues vers des aspects plus cognitifs. On sait en particulier les utiliser dans des tâches typiques de l'Intelligence Artificielle, mais aussi dans de nouveaux contextes prometteurs comme la navigation autonome de robot. Cet exposé montrera plus particulièrement les mécanismes développés qui permettent de réaliser de telles tâches.

Haut

Application des réseaux de neurones artificiels en asthomologie

 Ikram EL ABED, Inès BAZDAH, Imed NACEUR, Sofia TAKTAK, Habib GHEDIRA , Service de Pneumologie III , Hôpital A. Mami, Ariana, Tunisie

 

 Résumé : L'asthme est une pathologie fréquente dont la sévérité dépend de plusieurs facteurs. Il est actuellement proposé par un consensus international (GINA§) de faire un diagnostic de sévérité tenant compte uniquement de 2 rubriques : la caractéristique des crises et l'état fonctionnel respiratoire.

Le but de notre travail est de tester la capacité d'un RNA à simuler la classification selon la sévérité décidée par l'expert.

Matériel et Méthodes : Neuf données socio-démographiques et cliniques concernant 104 dossiers d'asthmatiques ont été proposés à l'avis d'un expert afin de les classifier en 2 stades de sévérité. Ces mêmes dossiers ont été classifiés selon le consensus GINA.

Un réseau de neurones artificiels type SFAM "Simplified Fuzzy Adaptive Resonance Theory Map" du logiciel Neunet Pro 2.2 (CorMac Technologies Inc., Canada) a été utilisé.

Résultats : La concordance entre la classification effectuée par l'expert et le consensus est de 57,7 %. Concernant le RNA, la modélisation semble parfaite puisque si l'apprentissage se fait sur les 104 dossiers, l'erreur de prédiction de la décision de l'expert est nulle. Par contre pour la généralisation (apprentissage : 50 dossiers; évaluation : 54 dossiers), la concordance entre le RNA et l'expert est de 82 %. La concordance RNA-Consensus est de 72% .

Conclusion : L'expert semble ne pas adhérer aux critères du consensus GINA. Le RNA est un système capable de modéliser parfaitement la décision de l'expert pour la classification de l'asthme avec possibilité de généralisation et d'utilisation comme système d'aide au diagnostic et de formation des médecins non-spécialistes.

§ GINA: Global Initiative For Asthma; NHLBI / WHO workshop report. Janury 1995. National Institute of Health.

Haut

SEGMENTATION STATISTIQUE PAR ECHANTILLONNAGE BOOTSTRAP POUR UN DIAGNOSTIC EN TEMPS REEL

 L. CAMMOUN*, S. M’HIRI* et F. GHORBEL*, **

* Groupe de Recherche Images et Formes de Tunisie (GRIFT) ENSI, Tunisie

** Centre des Etudes et des Recherches en Télécommunications (CERT)

Leila.Kammoun@ensi.rnu.tn , Slim.Mhiri@ensi.rnu.tn , Faouzi.Ghorbel@mincom.tn

Résumé : La calcification mammaire est une pathologie qui implique dans de nombreux cas une lésion (cancer de sein). Le diagnostic de ces lésions  se  fait en général par le biais de l’analyse des images radiographiques, et est particulièrement délicat. En effet, dans les mammographies, ces lésions peuvent être détectées par des formes stellaires, par des calcifications, des opacités… etc.

Dans ce papier nous nous intéressons à la détection et la classification des calcifications mammaires pour une aide au diagnostic. Dans un premier temps, nous montrons l’apport d’une méthode de segmentation  par classification Bayesienne pour la détection des calcifications. Ensuite nous proposons une nouvelle méthode d’accélération de cet algorithme par un échantillonnage Bootstrap afin de pouvoir l’utiliser dans un contexte de diagnostic en temps réel. Enfin, nous présentons des critères de représentativité permettant de fixer la taille optimale de l’échantillon à traiter afin de réduire au plus les temps de calcul tout en gardant une qualité de segmentation irréprochable.

Mots clés : mammographie, calcification mammaire, segmentation bayesienne, Echantillonnage Bootstrap.

Haut

Modélisation et détection des structures vasculaires dans des images médicales tridimensionnelles

Grégoire Malandain

Gregoire.Malandain@inria.fr

 

Résumé : La détection et la quantification des structures vasculaires dans des images médicales est une tâche ardue pour différentes raisons : influence de la modalité d'imagerie (angiographie par résonance magnétique, scanner avec injection, éventuellement microscopie confocale), topologie et géométrie complexes du réseau observé (jonctions, proximité, vaisseaux de tailles très différentes), objectifs variés.

Les applications de ce travail sont nombreuses. L'analyse du réseau autour d'une pathologie (sténoses, anévrismes, malformations artério-veineuses) peut aider le practicien à planifier l'acte thérapeutique, l'analyse fonctionnelle d'une partie du réseau (par exemple, la recirculation par les artères communicantes) peut permettre d'appréhender les conséquences d'une sténose, enfin l'analyse de la micro-circulation cérébrale devrait permettre de mieux connaître les mécanismes sous-jacents de l'imagerie fonctionnelle (TEP par exemple).

Nous avons choisi une approche basée sur le filtrage des images. Nous montrons comment la modélisation analytique d'un vaisseau nous a permis de construire une chaîne de traitement nous permettant d'extraire les informations pertinentes (pour une application) d'une image 3D.

Haut

Fonctionnement cérébral et modèles cognitifs

 Romain Martain, INSERP, Luxemburg

Résumé : Les connaissances issues des neurosciences et les connaissances issues de la psychologie ont pendant longtemps connu un développement indépendant, sans qu’il y ait eu beaucoup de mises en relation explicites entre ces deux niveaux de description de la cognition. Et même s’il est évident que le fonctionnement psychologique est le reflet d’un fonctionnement neurophysiologique sous-jacent, les concepts symboliques utilisés par la psychologie pour la description du fonctionnement cognitif dit “de haut niveau” étaient souvent difficilement compatibles avec les mécanismes de fonctionnement décrits au niveau neuronal. A l’exemple du traitement des informations visuo-spatiales, il est montré comment des nouveaux modèles cognitifs ont pu être mis au point par la psychologie sur la base de connaissances concernant l’architecture fonctionnelle du cerveau. Les techniques modernes d’imagerie cérébrale peuvent actuellement être mises à profit pour ajuster ces modèles psychologiques de la cognition. A l’inverse, les résultats obtenus au niveau psychologique permettent d’émettre de nouvelles hypothèses concernant le fonctionnement neurophysiologique sous-jacent, en incluant p.ex. une perspective différentielle. Il est enfin montré comment des modèles neuro-artificiels peuvent contribuer à une validation du lien qui est proposé entre les niveaux de fonctionnement psychologique et neurophysiologique.

Haut

Méthode de Surveillance Préventive Prévisionnellepar la logique floue : application à la médecine sportive

 NABLI L.*, TOGUYENI A., CRAYE E.,

Laboratoire d'Automatique et d'Informatique Industrielle de Lille (L.A.I.L.), (CNRS UPRESA 8021), Ecole Centrale de Lille, B.P. 48, 59651 Villeneuve d'Ascq Cedex, France.

*Centre Sectoriel de Formation en Electronique de Sousse, B.P 446, Cité Aouinet CP : 4000 Tunisie

CSFES@Email.ati.tn,  armand.toguyeni@ec-lille.fr

 

Résumé : L’évolution de l’environnement industriel, ainsi que le domaine médicale, s’est accompagnée d’un large éventail de réformes législatives, réglementaires et institutionnelles dont la finalité est d’acquérir des atouts suffisamment solides pour affronter la concurrence tant sur le marché local que sur les marchés extérieurs. Les problèmes à résoudre sont relatifs à la surveillance, au contrôle qualité et à la maintenabilité. Dans un problème de surveillance dans un environnement incertain, on considère que le système étudié peut prendre plusieurs états ( connus ou inconnus), telle que ces états peuvent présenter des chevauchements. L’objectif est de déterminer l’état du système à chaque instant t.  

Dans ce papier il s’agit de mettre en place un système de surveillance permettant d’envisager une approche intelligente basée sur un raisonnement qualitatif. Le raisonnement qualitatif a pour avantage par rapport aux approches exclusivement numériques de nécessiter moins de calcul et donc d’être plus rapide. Face à un problème complexe, l’être humain commence par raisonner qualitativement pour en réduire la complexité. Ensuite, des méthodes numériques peuvent être appliquées localement pour bénéficier de leur précision. La surveillance en ligne se doit d’être complète. Pour assurer cette complétude nous avons bâti notre approche sur les concepts de logique floue définie dans la méthode de la Moyenne Dynamique des Métriques. L’originalité de l’approche du Suivi d’évolution de la qualité du produit dans une unité de filature textile réside, d’une part dans la définition d’un indice de qualité (IQ). D’autre part, dans l’exploitation de la Moyenne Dynamique des Métriques MDM. L’ensemble  de ce travail se concrétise par les résultats obtenus que nous comparons avec ceux obtenus par la méthode somme/produit.  

Une ouverture sur la médecine sportive consiste à appliquer la méthode MDM, pour le contrôle qualité des indicateurs de performances du système neuromusculaire chez les athlètes.

Mots clés : surveillance indirecte, détection, suivi d’évolution, approche par la qualité, logique floue, fuzzification, inférence floue, médecine sportive, système neuromusculaire.

Haut