NOUVELLES TECHNOLOGIES DE L'INFORMATION
ET DE LA COMMUNICATION EN MEDECINE
Dr Paul LANDAIS
Hôpital Necker Enfants Malades
Faculté Paris V
En 1900 on décrivait 3000 maladies ou syndromes et en 1970, 30.000. En 1900 le vocabulaire médical était composé de 10.000 termes ou expressions et en 1975, de 200.000 [Gremy 1987]. En 1998, 430.000 termes médicaux étaient utilisés dans le Unified Medical Language, standard de langage médical unifié (http://smi-web.stanford.edu/) [McGray 1998]. La pharmacopée, riche de plus de 10.000 spécialités, s'enrichit d'environ 250 spécialités annuellement. En 1947, le New England Journal of Medicine recevait 100 manuscrits par an, aujourd'hui 3600 [Rennie 1998]. Le poids de l'Index Medicus s'est alourdi de plus de 30 kg en un siècle [Durack 1978]. En 1997, environ 16.000 journaux médicaux étaient répertoriés dont 3188 étaient indexés à la National Library of Medicine (NLM) aux Etats-Unis. Ces 20 dernières années, le nombre de références bibliographiques répertoriées par la NLM est passé de 2,7 à 8 millions. Dans ce contexte de croissance, la gestion de l'information médicale est devenue un enjeu majeur [Branger 1997, McDonald 1997].
Mais que recouvre exactement le terme d'information et comment les sciences de l'information en Médecine contribuent-elles à mieux gérer et à améliorer encore nos connaissances ? Les sciences de l'information utilisées en Médecine sont diverses. On retiendra surtout l'informatique, les biomathématiques, la biostatistique, la théorie de la décision et les sciences de la cognition. Nous examinerons les liens entre information et informatique (NTIC1) d'une part et entre information et cognitique d'autre part (NTIC2). page d'accueil
NTIC (1)
Dr Paul LANDAIS Hôpital Necker Enfants MaladesFaculté Paris V
- Sommaire
- 1. Information et informatique
- 2. Les développements de l'informatique moderne
- 3. Informatique et mathématiques
- 4. Informatique et avancées des techniques médicales
- 5. Références
- vers NTIC
- vers NTIC2
- page d'accueil
Dans la théorie de l'Information [Shannon 1948] le sens du terme information est essentiellement probabiliste. Toute information contribue à réduire l'incertitude, un message très informatif véhicule une information sur des événements rares (ce qui est rare est cher en information). Le contenu en information I d'un message est en effet une fonction du logarithme de base 2 d'un événement qui est survenu avec une probabilité p. Dans cette acception, le concept d'information n'est pas lié au contenu même de l'information. On s'intéresse à la probabilité de production de séquences de signaux. On mesure des quantités, des débits, des pertes d'information. L'information, qu'elle soit traitée par des systèmes physiques ou par des systèmes cognitifs, est donc une ressource mesurable, sa mesure ne préjuge pas de la qualité de son contenu mais seulement de sa rareté. L'information, ressource de la fonction cognition, devient alors une entité traitable par la technique informatique.
Le signal, "revêtement physique des messages", est le moyen qui rend la communication techniquement possible. C'est une grandeur de nature physique variée (acoustique, optique, électrique,É) et variable (par exemple au cours du temps). La théorie du signal étudie les modèles mathématiques de représentation du signal et de sa transformation par les systèmes de transmission. Les systèmes qui transmettent le signal permettent en effet de le "traiter" (amplification, modulation, détection, ...), ou bien sont à l'origine de son altération (bande passante insuffisante, bruit, ambiguïté).
Sous un autre angle, les sciences cognitives étudient comment l'information issue de notre environnement est traitée à divers stades par notre perception, notre attention, notre mémorisation ou notre évocation (au sens de la manière dont notre système cognitif traite l'information). Pour ces sciences toute entrée ou toute sortie de systèmes constitutifs d'une architecture fonctionnelle est une information [Houdé 1998]. Les grecs distinguaient déjà l'événement médical rare, porteur d'information (le kairos d'Hérophile, correspondant par exemple à l'instant où se manifeste un symptôme), et le temps chronologique à travers lequel s'organise la pratique médicale (le chronos d'Hippocrate) [Pigeaud 1999].
L'informatique constitue la science et l'ensemble des techniques automatisées relatives au traitement de l'information à toutes les étapes du recueil, du codage, de la sélection, de la structuration, du stockage ou de la mémorisation, de la récupération ou du décodage, de l'utilisation ou de la communication. Tous les systèmes informatiques actuels sont fondés sur une logique binaire. L'unité d'information est le bit : elle correspond à un quantum d'information binaire codé 0 ou 1. Ces quantas quand ils sont groupés par huit "pèsent" un octet. Un groupe de symboles, dont chacun a un poids informationnel d'un octet (i.e. est représentable par un nombre binaire de huit chiffres, par exemple 10101010) constitue un alphabet à partir duquel on peut construire des mots, des phrases ou des textes. La manipulation de ces objets rapproche l'informatique des mathématiques. L'informatique ainsi présentée, peut être considérée comme une science formelle. [http://www.mieur.nl/mihandbook/.htm].L'informatique peut aussi être présentée comme une science expérimentale. Elle permet en effet de générer des processus. Un processus est caractérisé par des entrées (les stimuli), et des réponses, qui sont chacunes des fonctions du temps. L'entrée et la sortie d'un processus sont modélisées par une fonction dite de transfert [Ganascia 1998]. Il en est ainsi pour un pace-maker. On modélise par un processus l'effet des entrées sur les sorties du système de régulation de la fréquence cardiaque. On identifie les perturbations susceptibles de modifier la réalisation du processus. On construit un régulateur qui module l'écart entre la consigne (une fréquence cardiaque donnée) et la sortie du processus (la fréquence cardiaque effectivement obtenue) compte tenu des perturbations éventuelles du système (un stress inopiné). L'étude de ces régulations procède de l'automatique, science de la commande et des automatismes.
2. Les développements de l'informatique moderne
L'informatique moderne date du début des années 50. C'est l'ère des "monstres-machines". A cette époque, il n'y avait au monde que quelques prototypes de machines à calculer, essentiellement au Etats-Unis, en Grande-Bretagne et aussi en France. Ces machines étaient bâties selon les principes architecturaux définis par le précurseur J. Von Neumann. Le principe architectural de base était la mise en mémoire, non seulement des données à traiter, mais aussi des codes qui décrivaient les instructions à exécuter. Ainsi, des séquences complexes d'opérations arithmétiques et logiques pouvaient-elles être réalisées. Ces premières machines étaient très chères, d'emploi difficile et encombrantes. De plus, elles comportaient des composants résistifs qui dissipaient une grande quantité de chaleur. Les programmes étaient écrits en langage machine par des spécialistes. Ultérieurement, des langages plus évolués ont été créés, permettant une programmation plus aisée et plus rapide. Ainsi, le calcul scientifique ou la gestion, par exemple, devenaient-ils plus accessibles aux utilisateurs. Ces langages ont servi de fondement à l'informatique, en scellant les bases théoriques du calcul et de la programmation et en ouvrant la voie aux langages et aux algorithmes des générations suivantes. Les années 60 furent les années de la "grande informatique". Les machines restaient encore très volumineuses et nécessitaient des équipes de spécialistes pour leur fonctionnement. Elles étaient situées dans les centres de calcul. On utilisait alors des cartes perforées pour introduire les données. La technologie électronique, au début des années 60, a connu une évolution majeure fondée sur le développement des transistors. L'introduction du transistor en 1947 a en effet contribué à accélérer la miniaturisation des équipements. Ils sont devenus plus compacts, plus fiables, plus rapides et moins chers. L'architecture des nouveaux ordinateurs, avec la pluralité de l'agencement des composants de base, a conféré aux nouvelles machines une plus grande souplesse et une plus grande maniabilité. Les années 70 ont été celles des mini-ordinateurs. La formidable évolution de la technologie des circuits imprimés et des mémoires a permis le développement de machines moins coûteuses : les mini-ordinateurs. Du fait de leur moindre coût et de leur plus grande maniabilité, les mini-ordinateurs ont connu un grand succès dans les entreprises, les laboratoires et les administrations. La technologie des microprocesseurs débute dans les années 1970. Un microprocesseur est un circuit électronique programmable hautement intégré. Plusieurs dizaines de milliers de composants sont rassemblés sur une plaquette de silicium de très petite surface. La progression de la technologie des microprocesseurs est fondée sur les procédés de gravure des puces. La taille mémoire double tous les dix huit mois. Très récemment découvert, un nouveau procédé pourrait encore bouleverser la donne. Cette nouvelle technologie est fondée sur la propriété de gérer les états intermédiaires d'un transistor et de stocker deux informations par cellule au lieu d'une, doublant ainsi la capacité mémoire sans augmenter le nombre de transistors. Dans les années 80, apparaît la micro-informatique (tableau 2). Le premier microordinateur a été créé par le français Truong, commercialisé par Bull sous le nom de MicralÒ , avec PrologueÒ comme système d'exploitation. Les micro-ordinateurs font alors une entrée fracassante dans tous les secteurs de la vie économique et de la vie courante. La Médecine n'a pas échappé à ce mouvement. La programmation se transforme : programmer n'est plus un exercice lié à la découverte d'algorithmes d'optimisation pour gagner en volume mémoire ou en temps d'exécution. Il s'agit de maîtriser la complexité, de construire des logiciels sûrs, modulaires, extensibles, communiquants, et mis à jour régulièrement. Les systèmes d'exploitation (comme Windowsâ ou UnixÒ ) illustrent parfaitement ces tendances. Le système d'exploitation d'un ordinateur a pour rôle de gérer ses ressources matérielles et logicielles. Ce rôle de gestionnaire de ressources assure le cheminement adapté de l'information entre les différents éléments de l'ordinateur. Il donne à l'utilisateur l'illusion d'une "machine virtuelle". Les systèmes d'exploitation ont évolué et incorporé des fonctions de service de plus en plus sophistiquées, comme la gestion simultanée de plusieurs programmes sur une même machine, la gestion d'application distribuée en réseaux locaux ou encore la gestion de bases de données et de banques d'informations. Les années 90 seront marquées par la généralisation des réseaux informatiques. Ce sont d'abord les réseaux locaux, qui sont initialement destinés à connecter des mini-ordinateurs, des stations de travail ou des micro-ordinateurs. Ainsi, un utilisateur profite, outre des ressources de sa propre machine, de ressources mises à disposition par différents serveurs du système. Les systèmes d'information hospitaliers, par exemple, sont organisés sur cette base.
Plus récemment, se sont popularisés les réseaux étendus caractérisés par l'interconnexion de réseaux locaux. Le réseau français Minitel en a été l'initiateur, l'Internet en est aujourd'hui l'archétype. Un serveur web met ainsi des informations à disposition de ses clients sur l'ensemble de la toile (web). Cette notion a été utilisée à l'échelon "d'Internet privé" ou d'Internet réservé à des utilisateurs précisément définis, appelé aussi Intranet. Il en est ainsi du réseau Santé Social (ou RSS), réseau protégé des professionnels de santé. L'accès en réseau est possible par le biais de l'identification et de l'authentification du client par un mot de passe frappé sur le clavier ou communiqué grâce à une carte à processeur portable (carte de professionnel de santé conçue selon sur le modèle de la carte à puce inventée par le français R. Moreno).
La micro-informatique et les réseaux ont été la source d'une redistribution des rôles au sein des hôpitaux. Les utilisateurs se sont petit à petit approprié leur micro-ordinateur. L'émergence des réseaux a étendu leur champ d'expression et de connaissance.
L'informatique s'est ainsi modelée sous la poussée de la technologie mais aussi des avancées conceptuelles. Créer, intégrer, relier, ces 3 termes pourraient résumer l'évolution de l'informatique médicale pour les 3 dernières décades [Stead 2000]. Schématiquement, dans les années 70 on crée des bases de données dédiées, dans les années 80 on intègre des données et des informations au travers de systèmes variés, dans les années 90 on interrelie des bases de données ou de connaissances entre elles. C'est l'émergence par exemple du métathesaurus de l'Unified Medical Languague System [Humphrey 1998], les langages type SGML ou XML [http://www.w3.org/XML]ou les architectures de type Object Request Broker. Plus récemment, le terme bioinformatique est né de la réunion entre informatique et biologie et en particulier autour de l'analyse du génome [http://www-smi.stanford.edu/pubs/SMI_Reports/SMI-98-0731.pdf].
3. Informatique et mathématiques
L'informatique et les mathématiques n'ont pas évolué de façon indépendante. Ainsi, ces dernières années, une définition formelle de la difficulté de résolution d'un problème a été proposée : c'est la théorie dite de la complexité. Cette théorie rapproche des problèmes concrets de nature très différente en montrant qu'ils peuvent présenter le même ordre de difficulté. Un des objectifs de la recherche opérationnelle est de trouver des solutions approchées aux problèmes qui ne peuvent être entièrement résolus. Ces solutions font appel à l'utilisation d'algorithmes combinatoires ou probabilistes résolvant le problème par épuisement déterministe des cas possibles ou faisant intervenir des choix aléatoires.
- 3.1. Géométrie algorithmique
- 3.2. Théorie des automates et des langages
- 3.3. Cryptographie
3.4. Théorie des graphes
L'utilisation que les informaticiens font des mathématiques est très variée. Il peut s'agir de l'algèbre, de l'analyse ou des probabilités pour l'élaboration d'algorithmes, de la géométrie algorithmique, de la théorie des nombres pour la cryptographie, de la logique pour la sémantique des langages, de la théorie des graphes ou des mathématiques discrètes. Voyons quelques exemples d'applications médicales.
La géométrie algorithmique est fondée sur la manipulation d'objets en 3 dimensions qui peuvent être animés en temps réel. Les applications de cette discipline sont très variées, elles touchent par exemple la vision par ordinateur (la réalité "augmentée") ou la robotique, utilisées en chirurgie. La théorie des automates et des langages est récente. Elle permet de modéliser des situations très diverses comme l'analyse des chaînes moléculaires, l'analyse du codage, les traitements de chaînes de caractères, la compression de données ou la manipulation de documents. La cryptographie ou science des messages secrets, connaît un développement tout à fait important en informatique et des applications essentielles en médecine. Le principe général est celui de l'utilisation d'une méthode d'encodage ou chiffrement de l'information par un émetteur, et d'une méthode de décodage ou déchiffrage connue du seul destinataire. La cryptographie se fonde sur des fonctions dites à sens unique. Il s'agit d'une fonction calculable par un algorithme polynomial mais impossible à inverser par un algorithme polynomial, même probabiliste. La libéralisation annoncée [http://www.internet.gouv.fr/] du cryptage pour des clefs de cryptage allant jusqu'à 128 bits ouvre des perspectives nouvelles de sécurisation des transferts de données médicales sur les réseaux étendus. La théorie des graphes est une partie des mathématiques qui porte sur les propriétés des graphes, conçus comme des ensembles de couples de points reliés par des arêtes. Outre qu'un graphe simplifie souvent la représentation d'un problème dont la formulation algébrique n'est pas simple, les graphes ont été source de concepts nouveaux [Sowa 1984]. Cette théorie est utilisée par exemple pour la représentation des concepts médicaux, la compréhension et le traitement du langage médical, l'élaboration des classifications médicales [VOLOT 1998] ou pour la décision médicale.4. Informatique et avancées des techniques médicales
L'informatique, associée à l'électronique, l'automatique ou la mécanique, a permis l'évolution des équipements et des matériels, des techniques biologiques, de l'instrumentation et de l'automatisation. Le génie biologique et médical participe de ces évolutions. Il concerne les activités de recherche et d'innovation, de production et de maintenance, dans les domaines d'application que représentent les équipements et les matériels médicaux à usage préventif ou diagnostique (imagerie, explorations fonctionnelles, analyse biologique), thérapeutique (matériels et produits,...), de surveillance (équipements de monitoring,...), de suppléance (prothèses, lunetterie, organes artificiels,...) ou de réhabilitation (équipements pour handicapés). En une vingtaine d'années, la représentation imagée du corps humain est passée des ombres projetées par rayons X à l'anatomie en 3 dimensions et à l'anatomie fonctionnelle, le temps se surajoutant aux 3 dimensions spatiales. Ces développements sont la conséquence de la numérisation des images. Le développement de systèmes informatisés de communication et d'archivage permet la simplification des tâches. Ces systèmes, P..A.C.S. (Picture Archiving and Communication Systems), permettent l'archivage et l'accès aux documents, associés aux données cliniques d'un patient [http://www.dejarnette.com/efinegan/pacspage.htm]. Le standard DICOM (Digital Imaging and Communications in Medicine) a été développé pour simplifier la connexion d'équipements et leur mise en réseau [http://www.xray.hmc.psu.edu/dicom/dicom_home.html].
- 4.1. Imagerie médicale informatisée
- 4.2. Chirurgie guidée par l'image
- 4.3. Pilotage d'instruments de mesure en biologie clinique
- 4.4. Traitement de signaux physiologiques
- 4.5. Modélisation
4.6. Surveillance des traitements
Numérisées, les images peuvent être traitées [Chabriais 1996]. Le traitement d'images médicales étudie la reconstitution d'images en 3 dimensions, la fusion d'images, l'analyse de déformation et la mise en correspondance d'images issues de plusieurs sources, ou d'une même source à des temps distincts [Brunie 1995]. Des logiciels de diagnostic, de comparaison et de recalage d'images sont élaborés pour la construction de systèmes de réalité virtuelle. L'évolution de l'imagerie médicale a été rendue possible par les importants progrès réalisés dans le domaine de l'informatique graphique. A ses débuts, l'informatique graphique imitait des images par l'utilisation plus ou moins appropriée de caractères alphanumériques. Avec l'utilisation de consoles spécialisées sont apparues les images vectorielles dont la visualisation est rendue réaliste par l'utilisation de techniques d'éclairage et d'ombrage du type lancer de rayons. Elles sont d'une grande qualité de résolution et de précision. Leur mise en Ïuvre logicielle est cependant d'une grande complexité. Actuellement, les images traitées en tant que matrices de pixels, sont un bon compromis entre la simplicité de traitement et la qualité de l'image. Le champ d'application de l'informatique graphique est vaste dans le domaine médical, en particulier pour le traitement et l'interprétation des images à des fins d'aide à la décision diagnostique ou thérapeutique.
Dans le cadre des systèmes d'information image, on peut distinguer la visualisation 3D, la communication d'images et l'aide à l'intervention chirurgicale, soit en robotique (intervention chirurgicale avec robot) [Demongeot 1995], soit en pilotage informatisé pour repérage de cibles (calcul et lithotritie, radiothérapie et cancers). Quatre grands types de systèmes d'imagerie sont disponibles : l'imagerie anatomique (tomodensitométrie, imagerie par résonance magnétique nucléaire, angiographie numérisée,...) [http://www.med.univ-rennes1.fr/cerf/cerf.html], l'imagerie fonctionnelle (gamma tomographie, magnéto-encéphalographie,É), l'imagerie positionnelle (acquisitions laser, vidéo, ultrasonore, infrarouge,...) et l'imagerie encyclopédique (atlas digitalisé, images de synthèse,...) [http://rockefeller1.univ-lyon1.fr/VisibleHumanProjectFrancais/VisibleHuman.html].
De nombreux développements récents sont liés à l'utilisation de la tomographie par émission de positons, et à l'imagerie par résonance magnétique fonctionnelle. Elles permettent des cartes de débit sanguins ou de variations d'activités cérébrales. Ainsi, l'informatique bouleverse les concepts de neuro-anatomie traditionnelle en lui adjoignant une traduction fonctionnelle, véritable cartographie fonctionnelle du cerveau en chronométrie et en localisation des régions activées, permettant l'étude des circuits de la décision et de l'imagination motrice, l'étude de l'activation des aires du langage, l'étude des causes de l'autisme en imagerie cérébrale fonctionnelle, É
Les progrès combinés de l'informatique, de la robotique et de l'imagerie médicale permettent de réaliser une véritable chirurgie guidée par l'image [Zerah 1998]. L'évolution des capteurs, des outils robotisés de repérage et de navigation, ainsi que la conception de nouveaux effecteurs pour agir sur les cibles ont bouleversé l'instrumentation chirurgicale. L'évolution de l'imagerie numérique et des systèmes de visualisation a contribué également à transformer l'approche chirurgicale. L'introduction successivement de la magnification optique avec les loupes, puis les microscopes opératoires, puis de l'endoscopie, et enfin l'utilisation peropératoire de méthodes d'imagerie de plus en plus sophistiquées (comme la tomodensitométrie ou l'Imagerie par Résonance Magnétique), ont permis de mieux voir le visible, puis de voir le "caché". Ces progrès ont plusieurs conséquences. Ils diminuent le traumatisme opératoire en réduisant les voies d'abord, en améliorant la précision du geste opératoire et son contrôle, et en raccourcissant la durée des interventions. Le déroulement d'une procédure chirurgicale est fondé sur le choix de l'imagerie, le transfert des images de radiologie en chirurgie, le préplanning de l'intervention, la préparation de l'intervention au bloc opératoire et l'intervention proprement dite.Au cours du préplanning, le chirurgien contrôle la validité des images transmises, repère les marqueurs cutanés et prépare son intervention. Il choisit sa voie d'abord, identifie la cible chirurgicale et les structures anatomiques adjacentes, calcule des distances, mesure des volumes et définit une trajectoire d'approche de la lésion. Avant le début de l'intervention, le chirurgien installe ses repères et les montre à des caméras à infrarouges. Pendant l'intervention, le chirurgien contrôle en permanence la localisation anatomique de ses gestes, visualise sa trajectoire et pilote le robot à partir d'un terminal.
Enfin on peut évoquer, comme en aéronautique, l'apprentissage, par simulation, d'une intervention chirurgicale, d'une laparoscopie ou d'un accouchement (figure 4).
L'informatique, l'électronique et l'automatisme ont contribué à bouleverser l'évolution de la biologie clinique [Moreau 1998, Cox 1998]. Les progrès de l'appareillage sont très divers et concernent l'affinement des techniques de mesure grâce au traitement du signal, au calcul en temps réel ou à l'interface utilisateur. Les instruments de mesure sont pilotés automatiquement (spectrophotomètre, compteur, ou analyseur de cellules). Les automates sont désormais interfacés avec des microordinateurs et les tâches sont simplifiées.Des analyseurs d'images permettent la reconnaissance automatique des formes cellulaires en anatomopathologie ou en hématologie [BOLAND 1998, HAMILTON 1998]. L'analyse automatisée par des systèmes réactifs-instruments de mesure et d'interprétation permet par exemple aux diabétiques de suivre leur glycémie grâce à un glucomètre portable.
L'état des organes et des tissus est quantifié par des variables de nature physique ou chimique, telles qu'une température, une pression, un pH, un potentiel électrique, une teneur en oxygène ou en gaz carbonique, une concentration, ou le produit d'une réaction enzymatique. Il s'agit de recueillir, de mesurer et d'analyser ces grandeurs au fil du temps. La mesure est réalisée par une chaîne de mesure. Elle est une fonction de la nature du capteur et de sa localisation (cutanée, percutanée, endocavitaire). Elle transforme la grandeur recueillie en une information, le plus souvent électrique et visualisable. On peut ainsi recueillir un enregistrement continu électrocardiographique ou électroencéphalographique, de pression artérielle, ou de saturation sanguine en oxygène. Par voie endocavitaire, on peut suivre des pressions, un pH, la concentration d'une molécule. Les services de soins intensifs, en particulier, utilisent des systèmes informatisés de surveillance en continu munis d'alarmes. En plus d'une représentation en temps réel, ces systèmes permettent aussi une représentation graphique des courbes de tendance et les données peuvent être stockées.Une nouvelle génération de capteurs voit le jour, il s'agit des biocapteurs [http://ion.ipc.uni-tuebingen.de/center/index.html]. Ces biocapteurs miniaturisés associent un matériau biologiquement sélectif (enzyme, anticorps monoclonal,..) à un semi-conducteur ou à un piezzo électrique. La variable mesurée agit sur le matériau biologique composant le capteur, et génère une énergie thermique ou rayonnante, proportionnelle à l'intensité de la réaction. Elle est transformée en un signal électrique par le semi-conducteur ou le piezzo électrique. Les applications potentielles de ces biocapteurs sont très larges : mesure de substances antigéniques, de variables chimiques (pH sanguin, glucose) ou détection de toxiques (monoxyde de carbone).
De nombreux secteurs de la Médecine bénéficient des avancées de la modélisation. Il en est ainsi de la modélisation de la résistance mécanique des tissus, ou de la dynamique des membres pour la réalisation de prothèses. De nouveaux matériaux biocompatibles, les biomatériaux (polymères greffés, réticulés sous rayonnement, alliages, céramiques, matériaux composites, semi-perméables, résorbables, non toxiques,...) ont transformé la mise au point de prothèses et d'organes artificiels. A chaque type de prothèse correspond un biomatériau de caractéristiques précises. La simulation des mouvements du corps humain permet de mieux cerner les contraintes tissulaires. L'informatique et l'électronique ont contribué notamment à la mise au point de prothèses orthopédiques (hanche, genou ou coude). On modélise les rythmes biologiques organiques voire cellulaires en électrophysiologie (rythmologie en cardiologie). On modélise en pharmacologie par l'utilisation des techniques de simulation moléculaire assistée par ordinateur pour l'analyse structurale et fonctionnelle des biomolécules et pour le développement de nouvelles molécules à visée diagnostique ou thérapeutique, ou par des techniques d'analyse structurale des biomolécules complexes, d'analyse du nucléosome (cette unité de répétition fondamentale le long des chromosomes qui associe les histones à l'ADN) par utilisation du rayonnement synchrotron. La diffraction des rayons X est aussi appropriée pour l'analyse de la résistance mécanique des lipides de la couche cornée de l'épiderme, de la kératine des cheveux, ou de la contraction musculaire par l'étude de l'articulation entre actine et myosine.La surveillance des traitements est facilitée par l'automatisation des appareillages. Les équipements d'assistance respiratoire, circulatoire ou le rein artificiel sont aujourd'hui très largement utilisés. La miniaturisation des dispositifs et l'utilisation des microprocesseurs permettent d'élargir une utilisation en ambulatoire. Des logiciels spécifiques permettent l'automatisation des mesures et la réalisation de traitements parfois complexes des données. On peut enregistrer en ambulatoire (holter) l'électrocardiogramme ou la pression artérielle sur le nycthémère. Se développent aussi l'autodiagnostic (glucomètre) et l'autosurveillance (tensiomètres automatiques). Enfin, ces dispositifs de surveillance ambulatoire peuvent commander en temps réel certains traitements comme la délivrance d'un médicament par une pompe implantable placée sous la dépendance d'une variable biologique afin de la maintenir dans l'intervalle des valeurs physiologiques.
[BOLAND 1998]
(mise à jour juin 2000)
retour NTIC1
NTIC2
page d'accueil