À ma connaissance, c’est la première fois qu’une telle masse de données, avec une telle précision, a été utilisée en prévalence de maladies infectieuses pour cartographier ces facteurs de risque et de mobilité. – Caroline Buckee
C’est sans doute, en effet, la première fois : la totalité des appels et des SMS générés par 15 millions de Kényans entre juin 2008 et juin 2009 a été analysée pour faire progresser la science. Quitte à semer le trouble sur l’épineuse question de la vie privée des utilisateurs.
Les migrations humaines contribuent à la propagation du paludisme, bien au-delà du rayon d’action du moustique Anopheles, son principal agent de transmission. Il s’agit d’un véritable casse-tête, notamment sur de vastes zones géographiques lorsque les ressources sont limitées – tant pour les soins que pour le contrôle des insectes.
Partant de l’observation selon laquelle il est impossible de cerner la façon dont cette maladie se propage sans des informations précises sur l’endroit où vivent les populations, une équipe de chercheurs américano-kényans a donc démontré, à travers cette étude menée en Afrique sub-saharienne, que les données enregistrées sur des téléphones portables pouvaient être utilisées dans le but d’identifier les régions à cibler en priorité dans le combat contre la maladie. L’étude a été publiée dans la revue Science parue le 12 octobre dernier.
Selon le Rapport 2011 sur le paludisme dans le monde publié par l’OMS, les décès associés en 2010 au paludisme – sont encore estimés à près de 700 000, soit l’équivalent, pour cette année, de la disparition des habitants des communes de Lyon et de Lille réunies. Plus de 90% des décès se situent en Afrique, et 86% des victimes à travers le monde sont des enfants de moins de 5 ans. En guise d’espoir, des réductions de plus de 50% des cas signalés ont été enregistrées dans la moitié des 99 pays touchés par la transmission au cours de la première décennie de ce siècle. Principale raison : le nombre de moustiquaires imprégnées d’insecticide livrées par les fabricants dans cette région de l’Afrique a considérablement augmenté et est passé, entre 2004 et 2010, de 5,6 millions à 145 millions d’unités.
Toutefois, ces mesures sanitaires sont loin d’être suffisantes. Raison pour laquelle la recherche se penche aujourd’hui sur des voies alternatives pour endiguer le fléau. “Les programmes de lutte contre le paludisme ont des outils très efficaces pour prévenir la transmission aujourd’hui, mais malheureusement, les ressources pour leur mise en oeuvre sont très limitées”, selon Justin Cohen, conseiller technique principal de l’équipe de contrôle du paludisme du Clinton Health Access Initiative. La technique utilisée dans cette étude nous donne un moyen d’optimiser l’impact de nos ressources limitées.
Plus de 30 pays à travers le monde ont déclaré un objectif national d’élimination du paludisme, mais il est difficile d’éliminer la maladie quand de nouveaux cas sont constamment importés. – Andy Tatem
Andy Tatem est professeur agrégé de géographie à l’Institut des Pathogènes Emergents de l’Université de Floride et co-auteur de l’étude. Il a fourni des cartes de population indispensables grâce à son projet AfriPop, qui utilise de l’imagerie satellitaire, des données de recensement et des cartes d’occupation du sol pour créer une cartographie détaillée de la répartition de la population de l’Afrique sub-saharienne.
Son équipe a ensuite utilisé les données fournies par une compagnie kényane de téléphonie mobile pour identifier les itinéraires les plus empruntés entre les différents coeurs de population, données où figurait une année pleine d’informations sur la localisation, les déplacements, la destination ou même les transferts d’argent de 14 816 521 utilisateurs de téléphones portables à travers le Kenya.
Professeur assistante en épidémiologie à Harvard et co-auteur de l’étude, Caroline Buckee s’est évidemment réjouie des perspectives offertes par la réunion du “big data” et de la cartographie des populations :
Déterminer où les gens vivent peut paraître trivial, mais c’est en fait une chose très difficile à faire en Afrique sub-saharienne. Des chercheurs avaient utilisé des GPS, des sondages et des flux de circulation sur les routes principales pour essayer de comprendre comment les gens se déplaçaient, mais ça nous fournissait des informations sur quelques centaines de personnes, tout au plus. Notre utilisation des informations issues de téléphones portables a apporté des milliards de données.
Et c’est bien grâce à ces données et à son travail de cartographie que les chercheurs d’Afripop ont réalisé un modèle de transmission du paludisme qui, appliqué à la population et ses mouvements, prédit les risques d’infection grâce à l’utilisation de la théorie mathématique des probabilités. Les résultats ont clairement montré que l’éruption du paludisme durant la période d’étude avait eu lieu dans la région du Lac Victoria et que la maladie s’était étendue vers l’est, en direction de la mégapole de Nairobi. Une cartographie qui démontre comment le paludisme est susceptible de se déplacer entre les différentes régions du Kenya. Et quelles régions, précisément ciblées par les équipes de lutte contre la maladie, produiraient le meilleur résultat au niveau national.
Reste une question – sinon la question qui taraude y compris les professionnels du mHealth. L’opérateur kényan Safaricom – qui appartient pour 60% à l’Etat et pour 40% à Vodafone – a-t-il demandé l’autorisation à ses 15 millions de clients pour permettre aux chercheurs majoritairement américains de fouiller, scruter, analyser un si grand nombre de données les concernant ? Rien n’est moins sûr. Contactée par Owni, la Fédération des Consommateurs Kényans (Cofek) dit avoir approché Safaricom à ce sujet sans jamais avoir reçu de réponse. “Du point de vue de la loi kényane, de telles études – qu’elles soient à but commercial ou de charité – utilisant des données de possesseurs de téléphones mobiles, sont inacceptablement intrusives”, nous a déclaré Stephen Mutoro, son secrétaire général. En ajoutant, fermement :
Nous espérons que ceux qui ont conduit cette étude, s’ils souhaitent être pris au sérieux, ressentiront le besoin d’éclaircir certains points mystérieux concernant la méthodologie employée, notamment si une autorisation en bonne et due forme de Safaricom et de la Commission des Communications du Kenya a été délivrée. Si, comme on le redoute grandement, il existe une brèche sur les questions de vie privée, alors les coupables se feront certainement taper sur les doigts, avec une énorme compensation financière pour les consommateurs. Nous attendons également que la Commission des Communications du Kenya [CCK] agira de manière proactive et demandera les informations nécessaires au sujet de la méthodologie employée pour cette étude.
Au Kenya, où 84% de la population est couverte par les réseaux mobiles, la pénétration du téléphone portable atteignait 42% en 2008 (source ITU), et les abonnés étaient plus de 18,5 millions (selon la CCK) en 2009 pour une population totale de 40 millions – soit plus de 46%. Les prévisions de l’époque indiquaient que ces chiffres seraient susceptibles de doubler en cinq ans ; plus de 25 millions en 2011, comme le montre le graphique ci-dessous.
Le Kenya est l’un des pays d’Afrique pionnier en matière de téléphonie mobile, ce qui s’explique notamment par la pauvreté du réseau cuivré. À titre d’exemple, le pays s’est doté depuis 2007 d’un système de paiement électronique innovant, M-Pesa, prévu au départ pour les transferts d’argent depuis l’international et devenu en quelques années un véritable système monétaire quasi-privé aux allures de potentielle monnaie parallèle. Ce qui rend la question de l’analyse des données de Safaricom d’autant plus sensible, vu que ces transactions financières sécurisées faisaient partie du lot de la “big data” passée entre les mains des chercheurs.
Dans ce contexte de baisse des revenus et de part de marché drastique, nous avons interrogé Safaricom afin de savoir dans quelles conditions ce “big data” (une année des données de 15 millions d’utilisateurs) avait été cédé à l’étude. Contrepartie financière ? Open Data ? Les clients “cobayes” ont-ils été prévenus ? Nous n’avons pas reçu de réponse à ce jour. Et nous espérons que l’opérateur ne se soit pas tout simplement endormi sur ses principes.
Au centre de la modélisation de cette masse colossale de données, Amy Wesolowski, jeune étudiante de l’Université Carnegie Mellon, travaille avec Caroline Buckee. Elle a déjà été interpellé sur cette question [pdf, page 15] de vie privée au sujet des données traitées au Kenya. Sa position de chercheur est sensée, polie, de bon aloi, mais pas forcément très claire sur la méthodologie employée par l’étude s’agissant de la récupération des données. Nous avons cherché à la joindre, elle est restée muette à nos questionnements, et nous en resterons donc à cette réponse de 2010 :
Ces données peuvent être utilisées pour de mauvaises choses, mais nous essayons de rester du côté du bien.
Professeur au département de médecine préventive de l’Université Vanderbilt, William Schaffner ne dit pas autre chose :
Je me doute bien que certains seront nerveux à l’idée d’un “big brother” qui nous suivrait partout. Pour ma part, je suis bien plus excité par les possibilités de nous prévenir d’une sérieuse affection.
Au vu des différents éléments que nous avons en notre possession et du mutisme appliqué de l’opérateur, il est donc probable que les 15 millions de clients de Safaricom aient été des cobayes à leur insu. Mais que ces innombrables données étudiées, manipulées pour la science, l’aient été dans un état d’esprit qui laisse peu de place à la paranoïa. Pour preuve, sans doute, ce document de travail “Du fair use de données comportementales, agrégées et anonymes” [pdf] réalisé par Nathan Eagle, doux-dingue ingénieur-informaticien passionné de béhaviorisme et de bien commun, PDG de txteagle qui pige de temps à autre pour le MIT et Harvard. Il a participé à la rédaction de l’étude parue dans Nature. Il est marié à la ville à… Caroline Buckee. Et qui, en évoquant son travail à Harvard, le résume ainsi :
En fin de compte, notre programme de recherche consiste à déterminer comment nous pouvons utiliser ces données pour améliorer activement la vie de milliards de personnes qui génèrent ces données et améliorer les sociétés dans lesquelles ils vivent.
C’est beau comme une keynote de Google.
La représentation en 3D d’une résolution spatiale à 100 mètres, version alpha, population d’Afrique de l’Est 2009 est issue du site afripop.org. Les régions zoomées sont celles de Bujumbura (a), Kigali (b), Kampala(c), Nairobi (d) et Dar Es Salaam (e) ; la carte de la pression clinique du Plasmodium falciparum (parasite qui cause le paludisme) en 2007 au Kenya est issue du site Malaria Atlas Project.
]]>Après un court instant de doute, j’ai su qu’il ne s’agissait ni d’un canular, ni d’une expérimentation artistique situationniste. Admis à l’hôpital San Camillo de Rome et diagnostiqué d’une tumeur du cerveau située dans le lobe frontal, Iaconesi ne dispose que d’options thérapeutiques limitées (chirurgie, chimiothérapie ou radiothérapie) et d’un pronostic peu favorable (les tumeurs du type gliome sont presque impossibles à soigner).
Décidé à chercher d’autres avis, il s’empare de ses dossiers médicaux et retourne chez lui. Où il découvre que son IRM et ses scanners sont en format propriétaire… Heureusement, ce virtuose du piratage de logiciel et créateur du collectif Art is Open Source, possède plus d’un tour d’hacker dans son sac. Il craque les fichiers, les publie sur Internet et invite experts médicaux et profanes à réagir. En quelques jours, il commence à recevoir toute sorte de contributions : des mails de bon rétablissement aux suggestions d’articles scientifiques, en passant par les coordonnées de professionnels de santé et des conseils pour les thérapies de pointe. Il y a, bien entendu, de tout et n’importe quoi. Il décide donc de cartographier, trier et analyser ces contributions disparates au moyen d’un outil de datavisualisation de sa création. Mis à jour quotidiennement par ses soins, ce graphe navigable donne accès aux dossiers médicaux et aux informations pertinentes collectées par la communauté de contributeurs Web de La Cura, son “traitement open source”.
La portée culturelle du cas Iaconesi est de plusieurs ordres. L’angle le plus direct pour l’interroger consisterait à se concentrer sur les implications en terme de vie privée de cette quête connectée d’un traitement ouvert du cancer. Le partage de fichiers médicaux et le crowdsourcing thérapeutique sont-ils révélateurs d’un basculement dans notre rapport à la dimension personnelle de la maladie ? Bien que la décision de l’artiste de “s’ouvrir” au sujet de son état s’avère peut-être tentant pour la presse qui déploie autour de lui le cirque médiatique habituel, la question est bien moins originale qu’il n’y paraît. Les plus célèbres survivants du cancer (à l’instar de Jeff Jarvis ou Howard Rheingold) ont longtemps soutenu que la “publitude” sur Internet recelait un grand potentiel curatif. La création de réseaux de personnes apportant leur soutien émotionnel et partageant leurs expériences ainsi que leurs conseils médicaux sont loin d’être une nouveauté. Ceci entre en résonance avec l’expérience de millions de membres de forums de discussion et de blogueurs atteints d’un cancer, qui documentent sur le Net leurs vies et leur lutte quotidienne.
L’originalité du traitement Open Source de Iaconesi se trouve ailleurs, en l’occurrence dans la façon dont il problématise la notion d’ouverture (openness) en mêlant “humanités médicales”, hacking et e-santé.
Permettez-moi de clarifier ces points. En fait, quand l’artiste se plaint que ses dossiers médicaux ne soient “pas ouverts”, il a techniquement tort. Le format DICOM (Digital Imaging and COmmunications in Medicine) utilisé pour enregistrer ses IRM et tomographies est, en théorie, ouvert dans la mesure où il garantit l’interopérabilité presque universelle entre tous les équipements d’information médicale. Cependant, dans une interview récente, Iaconesi soutient que :
“même” s’il est “techniquement ouvert”, le format dans lequel mes dossiers médicaux m’ont été délivrés n’est pas satisfaisant car il est “ouvert pour les professionnels” et par conséquent la seule chose que je puisse en faire est de les montrer à des professionnels, écartant toutes les formidables autres composantes de “traitement” qui sont disponibles à travers le monde.
Ce qui se joue dans cette définition différenciée de l’ouverture – celle de l’information au patient, des standards techniques de l’archivage numérique des dossiers médicaux et, finalement, du traitement lui-même – est le rapport entre professionnels de santé et patients. La mise à disposition en ligne de données médicales a été saluée comme un outil inestimable de capacitation des patients et a considérablement redéfini les professions de santé durant la dernière décennie. Les chercheurs ont constaté la montée de la “désintermédiation médicale”, c’est-à-dire le déclin progressif du rôle d’intermédiaires joué jusque là par les professionnels de santé entre le patient et l’information médicale. D’aucuns ont poussé le constat jusqu’à annoncer l’émergence d’une médecine en “peer-to-peer”.
En ce sens, le traitement open source auquel nous sommes confronté dans ce cas de figure s’inscrit dans une mouvance Médecine 2.0 qui glorifie le rôle des patients connectés en leur conférant le droit d’accéder, de manipuler et de partager leurs propres dossiers médicaux – comme on l’a vu dans les récents évènements très médiatisés tel le “Datapalooza”, sponsorisé par le département de la santé US.
Toutefois, cela ne signifie pas que l’opinion et la voix des profanes écartent l’expertise des professionnels de santé. La question de la crédibilité et de la fiabilité des informations médicales est cruciale. Comme le remarque Ulrike Rauer, chercheuse de l’Oxford Internet Institute, quand ils rencontrent des données médicales provenant d’Internet, les patients font encore davantage confiance aux professionnels de santé qu’à des sites privés.
Même les plus fervents apôtres de la Médecine 2.0 ne cèdent pas complètement aux sirènes de la désintermédiation. Au contraire, ils s’accordent pour dire que les professionnels de santé et les patients font partie d’un vaste écosystème d’”apomediaries” informatiques. Comme le dit Gunther Eysenbach :
à la différence de l’apomédiaire, l’intermédiaire se situe “entre” (du latin inter- “entre”) l’usager et l’information, ce qui signifie qu’il est un médiateur incontournable pour recevoir de l’information en premier lieu. De fait, la crédibilité et la qualité de l’intermédiaire détermine grandement la crédibilité et la qualité de l’information reçue par le consommateur. En revanche, l’apomédiation signifie qu’il existe des agents (personnes, outils) qui se tiennent prêts (du latin apo- : séparé, détaché, éloigné) à guider le consommateur vers des informations et des services de haute qualité sans être au départ une condition préalable à l’obtention du service ou de l’information, et avec un pouvoir individuel de sélectionner ou d’altérer l’information négociée qui est limité. Tandis que ces catégories ne sont pas mutuellement exclusives (en pratique, il pourrait y avoir un mélange des deux, de gens qui vont et viennent de l’apomédiation à l’intermédiation), l’hypothèse a été émise qu’elles influencent comment les gens jugent la crédibilité.
Un autre aspect important dans le traitement open source de Iaconesi est son plaidoyer pour une approche humaine de la santé et de la maladie. Son projet a pour but de traduire des données en une sorte de langage naturel hybride, compréhensible par le profane comme par les opérateurs d’équipements médicaux.
La première chose que vous notez dans un hôpital est qu’ils ne vous parlent pas vraiment. Le langage médical est complexe et difficile, et ils font rarement grand chose pour le rendre plus compréhensible. L’un des témoignages que j’ai reçu à La Cura venait d’une dame qui a entendu un médecin lui crier dessus : “Vous pensez vraiment que je vais vous expliquer pourquoi je dois vous retirer votre tyroïde ? Elle doit être retirée ! Point !”. Ce n’est pas vraiment “ouvert”, à aucun point de vue. Et, à plus d’un titre, c’est une preuve explicite de l’approche de la médecine vis-à-vis des patients : ils cessent d’être “humains” et deviennent des jeux de paramètres dans un dossier médical sujet à certains protocoles et certains standards. Quand vous êtes à l’hôpital, c’est souvent comme si vous n’étiez pas là. La seule chose qui compte c’est vos données : pression sanguine, rythme cardiaque, résonnance magnétique etc.
Ouvrir les données médicales revient à réconcilier le savoir médical avec l’expérience corporelle de la maladie. Et, de ce point de vue spécifique, l’inspiration pour le “traitement” de l’artiste italien peut être retracée à l’intérêt croissant pour les humanités médicales. Depuis la fin des années 1950, un corpus d’oeuvres littéraires et artistiques, ainsi que des productions universitaires en anthropologie médicale et en sciences sociales sur l’expérience de la maladie est utilisé dans la pratique médicale et son enseignement.
Au-delà des contacts basiques avec les patients, les professionnels de la médecine sont de plus en plus entraînés à développer des compétences de soins médicaux à visage humain, des aptitudes d’observation et d’empathie avec leurs patients. Ceci est réalisé en examinant des récits à la première personne de patients ou en étudiant le contexte sociologique et culturel de la pratique de la biomédecine. Même sans s’aventurer dans le champ le plus créatif, et parfois controversé, de l’art-thérapie, ce nouveau domaine a clairement le potentiel de complexifier et d’améliorer la compréhension actuelle du bien-être et de ses nombreux contraires.
Iaconesi a invité non seulement des experts médicaux et leurs patients, mais aussi des poètes, des plasticiens et des musiciens à participer à son expérimentation Web, et ceci place son traitement open source au croisement des humanités numériques et médicales. Jusqu’ici, le lien entre l’informatique, les humanités et la médecine a été surtout assuré par les professionnels de santé avec un bagage en informatique, comme les initiateurs du Medical Future Labs et d’autres programmes proches autour du monde. Le fait qu’un artiste – et une personne vivant avec un cancer – ait maintenant lancé une initiative proche promet d’offrir un aperçu inestimable sur la façon dont la maladie et la guérison sont vécues dans des environnements sociaux connectés.
Pensez aux possibles évolutions des notions de maladie et santé appliquées à cette situation, la possibilité de rendre des formes de dignité humaine et de sociabilité en se fondant sur le partage d’idées et d’expériences, sur la réappropriation d’un état de sincère et active solidarité, complète et variée.
La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.
Les pompes SMART délivrent des médicaments parfaitement dosés pour chaque patient. Des défibrillateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et cœurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.
Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux États-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi, le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion, 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.
Cette dépendance grandissante vis-à-vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002.
En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.
Or, le dysfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq.
L’ organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.
En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus.
Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme :
Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique.
Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité.
La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel “d’analyse statique” aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.
Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée.
En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.
Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux États-Unis et en Inde. Comme le souligne Peri Kasthuri, l’un de ses cofondateurs :
Pour un nouveau fabricant, c’est un bon départ.
En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents. Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20 dollars. Comme le confie Dave Arnez, un chercheur participant à ce projet :
Mon rêve est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures.
L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT : appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron.
Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. Comme le déclare le Dr Prajapati :
La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement. Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance (là ou les modèles libres sont plus durables NDLR). Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même
Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.
Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical.
Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source. Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. Comme l’explique le Dr Mackie :
Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer.
Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.
D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. “Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne.”
La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.
Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.
À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.
Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.
De tels changements ne peuvent plus attendre. Comme le dit le Dr Fu :
Quand un avion s’écrase, les gens le remarquent mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention.
Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.
Dans un discours devant les militants, samedi 25 juin, François Fillon a fustigé le décalage entre les défis que le monde nous lance, et les réponses si légères et si décalées qui sont avancées (source Le Monde).
Il parlait bien sûr du Parti Socialiste. Peut-être aurait-il dû plutôt parler de ce que vient de voter le Parlement en matière de cellules souches.
Car s’il y a bien un exemple patent où l’idéologie modèle les décisions politiques, c’est dans le domaine de la recherche, et en particulier la recherche biomédicale.
En France, les nouvelles lois sur la bioéthique, bien loin de simplifier la donne, vont en effet mettre de nouveaux bâtons dans les roues du secteur. Il n’est pas impossible que le domaine des cellules souches embryonnaires, déjà bien peu vaillant car simplement toléré par dérogation, finisse par mourir en France. La raison est donnée par Marc Peschanski dans Nature News :
Désormais, il nous appartient à nous, chercheurs, de démontrer qu’il n’existe pas d’alternative à nos propres recherches sur les cellules souches [embryonnaires], alors que la charge de la preuve reposait auparavant sur l’Agence de la bio-médecine.
Bref, non seulement le chercheur doit penser, chercher, rédiger des demandes de financement (non garanties), mais en plus, il doit maintenant démontrer qu’il ne peut pas faire autrement dans ses recherches !
On est bien loin de l’idéal de liberté académique ou encore du programme Vannevar Bush et de la “République des Sciences” après guerre :
Les découvertes entrainant les progrès médicaux ont souvent pour origine des domaines obscurs ou inattendus, et il est certain qu’il en sera de même à l’avenir. Il est très probable que les progrès dans le traitement des maladies cardio-vasculaires, rénales, du cancer et d’autres maladies similaires seront le résultat d’avancées fondamentales dans des sujets sans rapport avec ces maladies, et peut-être même d’une façon totalement inattendue pour le chercheur spécialiste. Les progrès futurs nécessitent que la médecine toute entière, et les sciences fondamentales telles que la chimie, la physique, l’anatomie, la biochimie, la physiologie, la pharmacologie, la bactériologie, la pathologie, la parasitologie. etc… soient largement développées.
Oui, l’inattendu est au cœur de la recherche scientifique, il est donc absurde voire contre-productif pour le chercheur lui-même d’essayer de montrer que d’autres systèmes qu’il ne connaît pas pourraient (ou pas) potentiellement répondre aux questions posées ! Sans compter que si d’autres pistes alternatives existent pour résoudre un problème, seront-elles pour autant financées si elles sont beaucoup plus chères ?
En réalité, on peut même se demander si le but de la loi n’est pas fondamentalement de tuer le domaine tout en faisant bonne figure, lorsque la loi de bioéthique précise que :
Les recherches alternatives à celles sur l’embryon humain et conformes à l’éthique doivent être favorisées.
Le sous-entendu est clair : les recherches sur les cellules souches embryonnaires ne seraient donc pas éthiques. Peu importe l’enjeu scientifique, peu importe même le débat éthique, les sous-entendus religieux (la fameuse équation embryon=être humain) l’ont emporté. Au Sénat, l’argument classique a été énoncé par M. Bruno Retailleau, sénateur MPF de Vendée :
Ce changement de régime juridique représente également une régression anthropologique. Je sais qu’il n’y a pas d’accord entre nous sur le moment où l’on franchit le seuil de la vie. Qui peut dire quand commence la vie ? Pourtant, nous voyons bien qu’il existe un continuum entre ces cellules qui se multiplient dans les premiers jours et ce qui deviendra vraiment une personne humaine, un sujet de droit. Or ce continuum, qui résulte du fait que chaque étape du développement de l’embryon contient la précédente, rend impossible la détermination précise du seuil d’entrée des cellules dans le champ de la vie humaine.
C’est vrai, je ne suis pas capable de dire quand un embryon devient un être humain, je ne suis pas capable de définir ce qu’est exactement un être humain. En revanche, je suis capable de donner une condition partagée par tous les être humains : par exemple, tous les être humains que je connais ont un cœur, des muscles, des neurones. Choses que n’ont pas des embryons au premier stade de développement. L’argument du continuum m’a toujours semblé fallacieux dans la mesure où les transformations successives de l’embryon (gastrulation, neurulation, etc…) changent évidemment sa nature, tout comme la fécondation elle-même.
Que penser aussi de ce genre d’arguments mystico-religieux sur la “toute-puissance” que les chercheurs transgresseraient (Marie-Thérèse Hermange, sénatrice UMP de Paris) :
Il ne s’agit pas de s’opposer à la recherche en tant que telle, mais il convient de ne pas oublier non plus que le coût de cette politique est la destruction d’un début de vie humaine. J’observe d’ailleurs que le début de la vie humaine intéresse les chercheurs dans les cinq premiers jours, c’est-à-dire au moment où les cellules sont « totipotentes », selon le terme technique employé, ce qui illustre bien le fait que cette « toute-puissance » initiale joue un rôle majeur dans le développement futur de l’être humain. Il me semble donc important d’utiliser au maximum les solutions de rechange existantes qui sont bien plus efficaces.
Pour répondre sur le même mode, la toute-puissance, c’est aussi le Chaos fondateur des mythes grecs, celui qui recèle tout le potentiel mais qui doit s’auto-organiser pour l’exprimer et engendrer les Dieux. Sans cette auto-organisation, il n’ est rien d’autre qu’un potentiel inutile, un chaos au sens commun du terme. Les Anciens avaient peut-être un sens plus développé du sacré que la civilisation judéo-chrétienne.
Le Parlement français est en réalité sur la même ligne que les mouvements chrétiens conservateurs américains, qui, suite à la levée des obstacles juridiques bushiens par Obama, se sont lancés il y a quelques mois dans une grande bataille judiciaire visant à interdire la recherche sur les cellules souches pour les mêmes raisons et avec les mêmes arguments “alternatifs” (cellules souches adultes, cellules iPS) utilisés par les Parlementaires français. J’en avais parlé ici; le dernier épisode en date étant que les choses ont l’air de s’arranger pour les chercheurs sur les cellules souches embryonnaires.
Alors que la campagne de 2012 se lance, et qu’à n’en pas douter on parlera d’avenir et de compétitivité future pour la France, le Parlement Français a pris une décision lourde de conséquence pour la recherche et la future industrie biomédicale française. Au nom de principes moraux pour le moins discutable, et sans réel débat éthique et scientifique fondé, le Parlement vient peut-être de porter le dernier coup fatal à ce domaine de recherche en France.
En 2012, votons pour la Science.
Article publié initialement sur Matières vivantes
]]>J’ai découvert qu’Apple était né grâce au hacking des compagnies téléphoniques américaines en utilisant la blue box du Captain Crunch. Il est tout a fait fascinant de voir l’évolution de Steve Jobs, fabriquant des blue boxes [en], les revendant pour acheter du matériel, créer le premier Mac et, 30 ans plus tard, se transformer en créateur d’un des systèmes les plus fermés et propriétaires du monde. Comment le pirate de AT&T devient le créateur de iTunes et de l’Apple store ? La métamorphose est passionnante. Elle illustre à mon avis un des risques de l’obsession de normalisation de notre société que traduisent certaines mesures du plan de M. le Ministre comme:
Détection et suivi de l’usage “hors AMM” des médicaments afin d’identifier les pratiques à risque.
Par définition, une prescription hors AMM est perçue comme dangereuse, alors qu’elle pourrait aussi être perçue comme un vecteur d’innovation. Quand on détourne de son usage un objet, il en sort parfois du bon. Je suis convaincu que la sortie du net du milieu militaire et universitaire est un bien. Ces mesures sont prises à la va vite sous la pression de l’affaire du Médiator. Le système est défensif. Il repose uniquement sur le flicage plutôt que sur la formation, la responsabilisation et la mise en confiance des différents acteurs. La médecine défensive [en], contrairement à ce que de nombreuses personnes croient, coûte chère et n’améliore pas la qualité des soins.
On veut normaliser pour que rien ne dépasse, pour vivre dans un cocon douillet, sans risque, dans une illusion de maîtrise, alors que la vie n’est que prise de risques et aléas.
La médecine est une activité à risque. Nous jouons avec la camarde une partie perdue d’avance. Notre but n’est que de la faire durer un petit peu plus. Il faut répondre à la souffrance du patient, à ses angoisses, à ses questions, à sa peur de la mort ou du handicap. Chaque individu est unique et nous devons faire l’inverse du scientifique. Nous partons du général pour aller au cas particulier en maîtrisant le mieux possible nos maigres connaissances. C’est ici que le médecin rejoint parfois le hacker.
Il y a un problème, un obstacle, un symptôme, une maladie. On applique un code ou un programme ou une démarche diagnostique ou thérapeutique qu’on a utilisé 100 fois et patatra, ça ne fonctionne pas. Que faire ? Il y a deux solutions :
Le hacker informaticien a une chance par rapport au hacker médecin, le code est connu (je me trompe peut-être, mes compétences et connaissances dans le domaine sont limitées). Le médecin utilise un code qui est partiellement connu, parfois il jongle plutôt avec du vide conceptuel que de la science bien ferme. Ce n’est pas forcément la chose la plus facile, trouver une solution quand on ne sait pas comment tout marche.
Dans de multiples situations nous nous retrouvons à bidouiller les prescriptions ou parfois ne prescrivons pas et bidouillons avec des mots quand nous arrivons au bout de nos ressources. La médecine est belle pour ça, amasser des connaissances, le plus de connaissances, que nous espérons les plus solides possibles et les appliquer à un patient avec son histoire, son terrain, sa subjectivité. Trafiquer le mieux possible pour que l’homme malade face à nous aille mieux. Parfois, il suffit de suivre la littérature, ce que nous avons appris à l’école. Nous ne réinventons pas la roue tous les jours, il faut juste des petits ajustements, des réglages de rien. Parfois malgré un diagnostic, nous ne faisons pas ce qu’il faudrait car en face de nous, il y a un sujet. Parfois on négocie avec sa conscience, on renonce à la perfection pour faire moins mal. Parfois nous nageons dans l’inconnu et là, c’est le grand bricolage, la quête d’une attitude la plus raisonnable. Mais, parfois, il faut oser.
Nous devons garder une certaine liberté de prescription sous la réserve de pouvoir toujours justifier de la façon la moins irrationnelle nos choix. La décision collégiale est une aide. L’écriture dans le dossier médical, pour qu’il reste une trace de notre cheminement et de nos choix, est essentielle.
Voici un exercice sain, justifier nos choix quand la science ne nous aide pas à décider, ou même si il y a du très solide. Nous trafiquons avec le patient, en partenariat, pour essayer de trouver la solution la plus adéquate. Parfois il ne faut pas transiger, parfois il faut faire preuve de souplesse, pas de dogmatisme mais de l’adaptation. On nous ferme la porte, je rentre par la fenêtre, car fracasser la porte n’est pas une solution. Comme le hacker, il faut connaitre les commandes du code ou du réseau le plus parfaitement possible.
Pour être libre, il faut savoir. Le savoir libère. Ce n’est pas pour rien que les dictatures brûlent les livres. La confrontation à la difficulté qui met en échec nos maigres connaissances nous rend meilleur si nous nous donnons la peine d’utiliser notre système nerveux central. J’aime toujours autant la clinique pour cette raison.
Le malade arrive avec son problème, et notre rôle est de trouver la solution la plus élégante possible. Quand vous écoutez des programmeurs, il y a une dimension de beauté dans du code bien écrit ou dans une solution trouvée qui ne passe pas par la force brute, l’éternel lutte entre Thor et Loki. Je préfère Loki, même si beaucoup trouvent que j’ai souvent une approche brutale. J’utilise ce que je veux quand je pense que c’est nécessaire.
Il faut que la régulation fasse très attention en voulant limiter nos possibilités de prescrire des molécules onéreuses ou non hors AMM. Certaines maladies rares, sans être exceptionnelles, ne feront pas l’objet d’études bien réalisées pour plein de raisons. La prescription hors AMM et hors étude peu apporter une preuve de concept qui permettra d’initier un essai randomisé. La prescription hors AMM peut permettre d’améliorer le soin. Ne diabolisons pas une pratique qui peut nous aider. Il faut un encadrement, il faut protéger les patients des fous, mais quand je vois qu’on laisse Simoncini en liberté, je me dis qu’il y a du travail. Il faut une culture du hors AMM, savoir analyser sa pratique, reprendre les cas et faire le point à intervalles réguliers. La discussion formalisée est un outil indispensable.
Il faut surveiller mais ne pas brider ceux qui vont à la limite pour l’intérêt du patient. Chercher une solution originale ou du moins sortant des sentiers battus pour éviter que mon patient ne finisse en dialyse, c’est un bel objectif.
La quête de l’équilibre, oui j’y reviens toujours. J’aime trop la physiologie rénale pour ne pas aimer la beauté de l’équilibre. L’équilibre dans le monde du vivant est dynamique, avec des mises en tensions dans un sens, dans un autre, et chaque fois le retour à un état compatible avec la vie. Ce nouvel état n’est pas forcément équivalent au précédent. La maladie est un bon exemple. Elle nous transforme. Je n’aime pas l’époque actuelle car elle voudrait comme un ordinateur ne réfléchir qu’en 0 et 1 (bien ou mal), comme si entre ces deux chiffres, il n’y avait pas une infinité de nombres. J’aimerais pouvoir dans mon activité dire chaque fois, c’est bien, c’est mal. Malheureusement dans de nombreux cas, il est impossible de trancher et on trafique avec sa conscience, avec les désirs du patient. Passionnant, non?
Il a 20 ans, une mère folle et une insuffisance rénale chronique terminale. Il est hospitalisé en psychiatrie pour échapper à la folie de sa génitrice. Il est débile léger. Je l’ai rencontré la première fois, il y a deux semaines, je remplaçais l’interne parti en DU. J’en entendais parler depuis quelques temps. J’ai un peu bidouillé son traitement. L’idée était d’attendre sa sortie pour qu’il retrouve son néphrologue traitant en ville. L’hospitalisation s’éternisant et refusant de jouer au “je te remplis pour ne pas voir la créatininémie monter trop vite“, comme il commence à vomir, je décide que c’est l’heure. 850 de créat quand tu pèses 50 kg, ce n’est pas trop bon. J’appelle mon collègue de la dialyse qui me trouve une petite place. Première séance, il refuse, deuxième séance même histoire. Jeudi, la troisième. Je l’ai vu deux fois, je lui avais parlé de l’importance de la dialyse et j’avais cru qu’il m’avait compris. Manifestement, j’ai échoué. J’ai dis à mes petits camarades de m’appeler si ils avaient un problème et évidement… Jamais deux sans trois.
Allo stéphane, il veut pas.
J’arrive dans le box de dialyse. Il est allongé. Il est très anxieux. L’interne de psychiatrie l’a accompagné. Il ne veut pas étendre le bras. Nous discutons. Brutalement, il explose:
Non,non, non, non.
Il ne sait dire que non. Il se replie en position fœtale, pauvre petit oiseau mort de trouille entouré par nos blouses, nos machines, nos aiguilles.
L’infirmière lui parle, l’interne lui parle, je lui parle. Je veux comprendre, je veux savoir pourquoi non. Je veux entendre ses mots au delà du non et en réponse encore “non, non, non”. Pourquoi non? Il ne peut pas le dire, ça dure. La solution de facilité : lâcher. Je n’ai pas envie, les trois soignants réunis autour du lit, nous n’en avons pas envie. Il faudra un jour le dialyser, commencer la technique. Ce ne peut pas être en catastrophe sur un OAP ou une hyperkalièmie. J’ai envie pour lui, et à l’instant présent contre lui, que la première séance se fasse dans le calme de la fin d’une après midi ensoleillée de juin et pas une froide nuit de garde de décembre avec des neuroleptiques dans les fesses. Il résiste, se replie, se ferme. Les mots ne sortent pas, je veux qu’il me regarde, je veux qu’il pose des mots sur son angoisse, sa terreur, pour ne pas rester avec ce rien. Le vide du mot “non” est insupportable.
Il y a derrière son non autre chose, le refus de la ponction de la pénétration de sa peau par l’aiguille tenue par une femme? Je ne saurai jamais, peut-être juste la peur de l’inconnu, mais je ne crois pas, c’est plus complexe, je ne suis pas psychiatre, juste néphrologue bourrin de base.
Je parle, nous parlons. Je continue dans mon approche monomaniaque. Je veux des mots. Il est insupportable celui qui veut des mots alors que vous ne pouvez rien dire. Toute votre vie on vous a appris que les mots sont dangereux. Alors finalement l’aiguille tenue par une jeune fille qui sourit, fait moins peur. D’un coup par mon obstination enfantine, le sourire paisible de l’infirmière et le calme de l’interne de psychiatrie, il lache, il se rallonge, il tend le bras.
On y va. Je reste. Le moment est difficile, heureusement l’emla ça marche. L’infirmière pose la première aiguille. Il me regarde dans les yeux, je ne veux pas qu’il voit la pénétration du biseau dans sa peau. Je lui parle, il préfère à mes yeux, le décolleté de l’interne de psy. Ça y est, il n’a rien senti, on fixe. Il s’agite à nouveau, il n’est pas loin d’arracher l’aiguille. Je continue à parler, à raconter je ne sais plus quoi sur un mode automatique. Il se calme, il allonge le bras, la deuxième aiguille est en place. Il n’a pas mal. L’infirmière le branche, la machine tourne, le sang rencontre le filtre. C’est parti pour trois heures. Nous le félicitons de son courage, d’avoir pu surmonter sa peur. Je suis content. Nous n’avons pas eu besoin de sédation, juste de parler de trouver la clé pour l’aider. Rien n’est définitif, je ne pourrai pas assister à tous les branchements, ce ne pourra pas toujours être la même infirmière… Nous verrons, à chaque jour suffit ça peine.
C’est ça la médecine, être ensemble autour d’un problème qui peut paraitre trivial: “brancher en dialyse un patient qui ne veut pas“. Il est hors de question de le contraindre physiquement ou chimiquement. Nous sommes trois, nous ne nous sommes jamais rencontrés avant et pourtant après 3/4 heure, tendus vers le même objectif avec nos histoires, nos vécus, nos expériences différentes, nous avons réussi avec un outil élégant, libre et gratuit, la parole (le code premier et ultime, le langage) à résoudre ce problème qui pouvait paraître sans issue.
La ténacité est importante en médecine.
Quel métier passionnant…
Photos Flickr CC par Divine Harvester, par PhOtOnQuAnTiQuE, par daedrius,par quinn.anya, par molotalk.
]]>On pourrait croire que c’est un truc qui a été fait pour les Anglais vu que le système métrique est quasiment universel. Et qu’il est lui-même fondé sur des bases rationnelles, comme l’avaient rêvé ses concepteurs lors de la Révolution française. Mais c’est plus compliqué que ça parce que le gramme ou le mètre font eux-mêmes partie des unités de base du Système International.
Donner un résultat en “grammes par litre” est donc bien une expression de type “SI”. Mais elle est beaucoup trop simple et compréhensible du commun des mortels. Du coup, ce n’est pas drôle.
Ces nouvelles unités de mesure sont donc vraisemblablement sorties du cerveau de chimistes pour lesquelles le raisonnement en “moles” doit avoir du sens même si ça n’en a strictement aucun pour M. Tout-le-monde. “Vous me mettrez aussi 3 moles de sucre, Mme l’épicière.”
Mais, soit. Puisque nous évoluons dans la mondialisation, adoptons cette langua franca biologique. Finis les grammes par litre. Bienvenue aux millimoles par litre.
Le problème, c’est que ce n’est pas aussi simple. Déjà, parce qu’il y a d’autres unités qui viennent se mêler à ça. Pour les ions, on peut aussi parler en milliEquivalents (mEq) qui dépendent de la charge électrique. Souvent 1 mEq = 1 mmol. Mais pas toujours. Pour le calcium, 1 mmol = 2 mEq. Ça amuse les chimistes.
Et puis, il y a aussi, les “Unités” pour les enzymes et pour certaines hormones. Mais pas pour toutes.
En matière d’unification, on repassera…
Pour certaines données, ça ne pose pas trop de soucis, on est à peu près tous sur la même longueur d’onde. Ainsi, pour le sodium ou le potassium, on parle tous en mEq. Pour l’hémoglobine, tout le monde en France en est resté aux grammes. Pour la glycémie aussi, en-dehors de quelques acharnés.
Pour d’autres, c’est un joyeux bazar. Lorsque j’ai un confrère hospitalier en ligne et qu’on parle du taux de créatinine, ça donne souvent ça :
- Il a 12 mg de créat.
- Ça fait combien, ça ?
- Euh… 106 µmol.
- Ah, ok.
Et là, je ne parle que des Français entre eux. Quand mes patients anglais me parlent de leur glycémie à « 6,2 », je vois à peu près ce que ça fait. Mais quand un patient hollandais m’a dit que sa dernière hémoglobine était « à 7 », j’ai cru que je devais appeler le 15…
Manque « d’unités », donc.
Mais il y a encore plus amusant. Histoire d’être originaux (et de garder leur clientèle), les laboratoires d’analyse français aiment bien avoir leurs petites coquetteries. Dans mon coin, quand un laboratoire me dit que les globules blancs de mon patient sont à 7 550 par mm3, le labo d’à côté trouvera plus chic de me dire qu’ils sont à 7,55 Giga par litre.
Quand l’un va me répondre “Protéinurie : 170 mg / l”, l’autre me dira “Protéinurie : 0,17 g / l”.
Le souci, c’est qu’aujourd’hui, la plupart des logiciels médicaux permettent d’intégrer automatiquement les résultats de prise de sang dans les dossiers des patients. Avec ça, on peut faire en deux clics de jolis tableaux qui permettent de voir les évolutions sur la durée. Du coup, quand le patient change de laboratoire, ces tableaux, ça devient un peu n’importe quoi.
Et, comme on peut toujours faire pire… Chaque laboratoire a ses propres normes. Pour le laboratoire X, la “norme” de la créatinine, c’est entre 7,4 et 13,7. Pour le labo Y, c’est de 7 à 12. Et pour le laboratoire Z, c’est entre 4 et 14.
Donc quand on a un patient qui avait un résultat à 12,5 chez Y et qui a maintenant un résultat à 14 chez Z, c’est plus ? C’est moins ? Pareil ? Qu’est-ce qui est dans les normes, qu’est-ce qui n’y est pas ?
Tout ceci m’emmerde car ça nous complique la vie. A l’heure où nous avons des logiciels médicaux qui présentent des tas de possibilités pour améliorer le suivi de nos patients, ces singularités sont ingérables.
Alors, moi je veux bien faire des efforts. Si demain, on me dit qu’il faut que je donne mes glycémies en mmol, je ferai l’effort intellectuel, je m’adapterai. Je ne trouverai pas forcément ça très parlant pour les patients, sans aucun intérêt pour le clinicien que je suis, mais d’accord. Ça me prendra sûrement un petit moment, mais je m’y ferai. Comme, petit à petit, j’ai fini par oublier les francs pour raisonner en euros.
Mais, comme pour le changement de monnaie, comme pour les unités de poids avant la Révolution, on n’y arrivera jamais si chacun continue à faire sa petite tambouille dans son coin.
Moi, ce que j’aimerais, ce serait qu’on enferme tous les biologistes de France ou d’Europe dans un grand hangar. Qu’on les y enferme et qu’on ne les laisse sortir que lorsqu’ils se seront mis d’accord une bonne fois sur quelle unité de mesure et quelles normes pour quelle donnée. Et qu’ensuite on s’y tienne en arrêtant rapidement les systèmes de « double affichage ».
Ces gens là ont bien des syndicats et des sociétés savantes dont l’utilité dépasse peut-être les négociations tarifaires. Je ne vois pas pourquoi ils ne pourraient pas arriver à ça.
Et s’ils n’en sont pas capables parce que leurs petits intérêts particuliers et leurs confortables habitudes les en empêchent… Eh bien ! Il y a la loi pour ça.
P.S. En attendant le grand soir, je me suis fais un petit tableau Excel pour pouvoir plus aisément « traduire » les valeurs biologiques les plus courantes. Je vous l’offre !
Article initialement publié sur “Le blog de Borée” sous le titre “Unité !”.
Photos Flickr par Kitkor, par adamrhoades et par mars_discovery_district.
]]>Cédric Suriré est chercheur en sociologie à l’université de Caen, au sein de laquelle il contribue au Pôle “Risque, Qualité et Environnement durable”. Ses réflexions se portent sur la sous-traitance, notamment au sein du nucléaire, secteur selon lui coupable d’une “maltraitance” sur ces travailleurs fantômes. On évalue de 20.000 à 30.000 personnes selon les années leur nombre, pour 50.000 salariés chez EDF.
Il y a un parc nucléaire avec des usines dites à risque, gérées par une maintenance sous-traitée. Cette sous-traitance permet la mise en place de conditions de travail déréglementées, par le recours massif aux intérimaires et aux CDD et, dans le cas des CDI, qui sont aussi nombreux, par la gestion du travail “par dose”. EDF a mis en place cette sous-traitance pour gérer l’excès de radioactivité qui n’est pas supportable par le personnel statutaire.
Le suivi médical de ces sous-traitants est inexistant : ils forment une population nomadisée, qui va de chantier en chantier, qui change souvent d’employeurs… Et cela permet à EDF de ne pas être responsable de tous les accidents de travail et des maladies professionnelles imputables à l’exposition.
Pour un travailleur, on estime que l’exposition limite est de 20 millisieverts (mSv) par an. Suite à la pression redondante des syndicats et de certaines associations de salariés, on a décidé qu’à partir de 16 mSv, il fallait arrêter d’exposer les travailleurs dans les zones à risque.
Le problème est que les travailleurs qui atteignent les 20 mSv sont mis au chômage. Du coup, des stratégies très particulières se mettent en place. Par exemple, certains décident d’enlever leur dosimètre pour ne pas le soumettre aux radiations : leur exposition n’est plus contrôlée.
Ensuite, à partir du moment où le travailleur atteint les 16 mSV, il reste quand même plusieurs questions. Ainsi, celle des faibles expositions quotidiennes. En 2008, une étude du CIRC (Centre international de recherche sur les cancers) a ainsi préconisé de mesurer l’exposition à partir de faibles doses quotidiennes et non plus à partir des niveaux établis à partir des victimes d’Hiroshima. Reste aussi la question d’une exposition considérable en une seule fois, par exemple sur ceux qui reçoivent 5 ou 6 mSv en une exposition.
Il y a plusieurs formes de réactions. Dans les années 1990, une chercheur anthropologue avait étudié les “kamikazes” de la Cogema qui, pour dépasser le risque quotidien, allaient en quelque sorte le provoquer. Ils y associaient une valeur virile et positive. C’est un mécanisme de défense individuelle, tout comme le déni de réalité. Dans ce cas là, malgré les différents exposés, malgré les chiffres, le travailleur adopte le discours qui consiste à dire que la dose ne lui fait rien et que pour l’instant, il n’a pas mal et qu’il peut continuer. C’est une rationalisation du danger. Comme les conséquences d’une exposition répétée peuvent se faire ressentir trente ou quarante ans plus tard, ça favorise le processus.
Il y a une médecine à deux vitesses dans le parc nucléaire. La première est sur site et propre à EDF. J’ai constaté lors des différents entretiens réalisés qu’une part importante des médecins du travail était inféodée aux donneurs d’ordre – en l’occurrence, EDF. Ils ne s’occupent pas vraiment des sous-traitants, sauf exception : je pense par exemple à Dominique Huez, médecin sur le site de Chinon, qui lutte pour la prise en compte des maladies et des suicides au sein du nucléaire.
Il y a également une médecine interprofessionnelle. Elle visite les salariés par l’intermédiaire des PME auxquelles ils sont rattachés. Mais le suivi est très difficile car les salariés vont partout en France et changent d’entreprises, qui elles-même varient souvent : il arrive qu’elles se regroupent et qu’elles changent de nom.
Par ailleurs, du côté d’EDF et de leurs médecins, on assiste fréquemment en cas de problèmes de santé à des disparitions de dossiers, de suivis gammamétriques. Il y a un an, j’ai ainsi fait un entretien avec un travailleur qui avait été exposé. Il a mis deux ans pour rassembler toutes les pièces de son dossier.
C’est très difficile à savoir, mais les deux doivent jouer. D’une part les médecins qui veulent à un moment soulever le problème constatent que cela pose un problème au niveau de la hiérarchie et vont d’eux-même rationaliser, en se disant que peut-être, la direction n’a pas si tort, que peut-être, la sous-traitance n’est pas un si gros problème… Après, il y a des directives qui passent pas certains intermédiaires et des stratégies de camouflage.
On a affaire à l’organisation et la structuration d’un risque socialement acceptable. Comme l’amiante. C’est le système de dose établi qui le permet. Ce niveau pourrait être fixé à 10 mSV, à 5 ! Mais à ce moment là, EDF ne pourrait plus exposer ses employés. Du coup, on s’autorise à rendre des gens malades et à faire des morts en suspens pour produire de l’énergie.
Il y a un gros souci, c’est que la stratégie syndicale qui aurait pu être mise en place – et qu’on aurait pu attendre vu que ce sont eux qui se saisissent habituellement de ce genre de problèmes – n’existe pas. Les syndicats sont restés en arrière et se cantonnent à défendre l’outil de travail, sauf de temps en temps, avec des tentatives de réappropriation de la question, qui restent des discours de façade.
Certaines associations de défense de la santé des victimes du nucléaire s’organisent. Avec des universitaires, nous avons ainsi fondé “Santé Sous-traitance Nucléaire-Chimie”, qui s’occupe des salariés de ces secteurs – les travailleurs de la chimie sont également exposés, à des produits chimiques. On aide les salariés dans leur démarche et on tente de mettre en avant le problème. Nous sommes partenaires de la Fondation Henri-Pezerat, d’Annie Thébaud-Mony, qui organise des colloques, des publications, et qui produit un mélange de travaux universitaires et syndicaux.
C’est très difficile. D’un point de vue politique, c’est simple : de la droite à la gauche sociale-libérale, on est pro-nucléaire. Seules les tendances écologistes et anarchistes ont des discours critiques sur le sujet.
Ce sont malheureusement des événements comme Fukushima qui vont peut-être permettre une visibilité accrue. C’est dommage. Le laboratoire auquel je suis rattaché, à Caen, existe depuis 1986 et a travaillé sur Tchernobyl, les liquidateurs, etc. Nous avons toujours été classés dans le registre des catastrophistes, des prophètes de malheur, des fous.
Chez certaines personnes, comme les lanceurs d’alerte, qui ont pris position auparavant au péril de leur travail, de leur famille, ça a facilité la prise de parole dans les médias, oui. L’un d’entre eux a par exemple témoigné dans un reportage diffusé sur France 3 après Fukushima. Mais cette sortie a provoqué de nombreux problèmes : sa voiture a été caillassée sur le parking du site, la plupart de ses collègues lui ont tourné le dos. Même après l’événement, le problème de l’aliénation au travail reste. Même si les atteintes sont très fortes, ces travailleurs ont encore foi dans leur activité et dans le nucléaire.
Absolument. Il suffit de voir les déclarations du maire de Dieppe (ndla : site de la construction du réacteur EPR) après que des bruits ont circulé sur un éventuel moratoire sur EPR. Il a nié en bloc. Ce sont des déclarations fortes qui semblent aveugles face à l’ampleur de la catastrophe passée.
Un philosophe allemand, Günther Anders, disait pour la bombe nucléaire, mais c’est applicable au nucléaire seul, que ses conséquences sont “supraliminaires”. Autrement dit, elles dépassent notre imaginaire ; il est impossible de se représenter la réalité de ce danger de cette catastrophe. Si le cœur d’un réacteur de Fukushima était entré en fusion, il faut rappeler que cela aurait était équivalent à 80 fois Tchernobyl ! Mais face à la rationalité à court terme, face à la recherche de profit immédiat, on oublie tout ceci.
Oui ! C’est un peu comme l’amiante, qui était un peu plus palpable mais qui restait une contamination.
C’est une épidémie moderne, comme l’amiante. Un choix de société pour produire de l’énergie et non démocratique a mené à la production de cette épidémie de cancers.
Pour atteindre le bien-être, pour le confort matériel, l’exposition et la mort d’autant de personnes sont socialement acceptables. C’est le résultat d’un simple calcul coût/bénéfice.
–
Illustrations CC FlickR x-ray delta one et Porphyria Poppins
Les autres articles de notre dossier :
La CGT d’EDF atomise les sous-traitants
Image de une Marion Boucharlat pour OWNI, téléchargez-là :)
]]>Certains des projets retenus en 2009 sont encore loin d’être achevés, particulièrement dans le domaine de la santé. Plusieurs équipes travaillent aujourd’hui à la conception de “therapeutics games”, des jeux qui permettront de soigner certaines pathologies ou du moins d’accompagner les soins. Ces projets s’étalent sur plusieurs années et ne donneront pas de résultats concrets avant fin 2011. Ils ont des objectifs ambitieux, devront prouver leur efficacité pour espérer s’intégrer dans le système de santé. En attendant, ceux qui les portent ont vu l’attention médiatique se réduire.
« Le marché du serious game a été pris d’assaut par les boîtes de com et le e-learning. C’est ce qui est visible aujourd’hui. »
Catherine Rolland place son travail sur un autre niveau. Chef de projet pour Tekneo, elle participe au programme collaboratif SG COGR. Le jeu qu’elle développe a pour objectif d’entraîner le cerveau des malades d’Alzheimer, à exercer l’attention pour ralentir la progression de la maladie. La solution retenue : faire jouer les personnes âgées à un FPS . Il a été prouvé que ces jeux de tirs améliorent certaines capacités du cerveau comme l’attention et la rapidité de réaction.
Cadre médical, public âgé, il était nécessaire de sortir du cadre violent des FPS . Le jeu sera donc un safari photo dans un village de Provence. Le gameplay sera simplifié, les joueurs ne gèreront pas les déplacements du personnage. Ce jeu a déjà un nom : « Le village aux oiseaux ».
D’autres projets de therapeutic games sont en cours. Laurent Michaud, de l’Idate , fait lui partie de l’équipe . du projet Mojos. Autre ambition : développer un moteur de jeu, open source et spécialement conçu pour les applications thérapeutiques. « Un maillon de la chaîne de valeur qui n’existe pas aujourd’hui ». Pour prouver l’efficacité de ce moteur, une application est en cours de finalisation. Ce jeu aura pour but d’accompagner la rééducation de patients ayant subi un AVC. L’hémiplégie pourrait également profiter des effets bénéfiques des jeux vidéo sur la plasticité cérébrale.
Ces deux projets comptent faire reconnaître le jeu vidéo comme élément d’un processus de soin. Ils vont donc devoir prouver leur pertinence médicale. Mojos a obtenu le financement d’un programme hospitalier de recherche clinique (PHRC), qui sera organisé dans les CHU de Montpellier et Nîmes. La procédure sera double : en parallèles des essais cliniques classiques (deux groupes en rééducation, l’un d’entre eux utilisant un serious game), l’imagerie cérébrale sera utilisée pour mesurer l’évolution cognitive des patients. Les tests débuteront en avril 2011, les premiers résultats arriveront en fin d’année.
L’équipe de SG COGR définit actuellement sa procédure de validation avec l’Afssaps. Le lancement des tests est également prévu pour mi-2011. Ces essais cliniques sont longs, incertains, et nécessitent des financements importants. Pour ces deux projets, l’aide de l’Etat a été décisive. Selon Catherine Laffont, « l’appel à projets de NKM a apporté un souffle, et a permis de payer ces tests ». Un protocole de validation adapté au jeux vidéo reste à définir : il semble impossible (et inutile) que les concepteurs de jeu se lancent dans des essais cliniques semblables à ceux utilisés pour les médicaments. Ces phases de tests peuvent durer jusqu’à dix ans, plus que la durée de vie d’un jeu vidéo.
« Les serious games ont intérêt à disposer d’une législation propre, adaptée aux contraintes des nouvelles technologies. »
Laurent Michaud espère voir naître des règles de validation spécifiques. Cela permettrait d’avancer vers l’étape suivante : la reconnaissance des bénéfices thérapeutiques et le remboursement de certains jeux par la sécurité sociale.
Pour les therapeutic games, deux modèles économiques principaux sont envisagés :
La deuxième option, Laurent Michaud l’annonce clairement : « on en est loin ». Après la validation médicale, il faudra démontrer l’intérêt économique des therapeutic games.
« Si on arrive à prouver qu’on peut générer des économies pour le système de santé, on aura fait l’essentiel. »
Le contexte de réduction des dépenses de santé semble favorable à ce genre d’initiatives. Les deux pathologies abordées par ces projets sont fréquentes, et représentent des coûts importants pour la sécurité sociale. SG-COGR a pour finalité de permettre aux malades d’ Alzheimer de rester plus longtemps à leur domicile. Moins cher et plus confortable qu’une hospitalisation de longue durée. Après un AVC, la rééducation des hémiplégiques se pratique avec du matériel coûteux, des robots par exemple. En comparaison, un système de jeu est un investissement dérisoire.
Cette réflexion sur le modèle économique conditionne les fonctionnalités des futurs jeux. L’installation de ces systèmes au domicile du patient permettrait des applications inspirées de la télé-médecine.
« Le profil du patient pourra être suivi, il y aura un système d’alerte, qui recommandera de consulter en cas de baisse des performances. Et le patient pourra venir chez son médecin avec sa clé USB pour analyser ses résultats. »
Catherine Rolland espère que « le village aux oiseaux » sera accessible via une télévision connectée. Cela permettrait de l’insérer naturellement dans le quotidien des patients. Pour mettre à profit un des points forts des jeux vidéo: l’engagement dans la pratique. 80% des personnes qui suivent une rééducation ne font pas les exercices qu’ils sont censés pratiquer chez eux. C’est un des espoirs permis par les serious games: que l’aspect ludique entraîne une pratique plus régulière. En termes techniques, une garantie d’observance.
Pour Julian Alvarez, chercheur en InfoCom spécialisé sur les serious games, « nous sommes encore dans une phase d’évangélisation ». Les preuves n’existent pas encore, les concepts sont séduisants mais leur avenir dépend des essais cliniques qui auront lieu en 2011. Catherine Rolland l’avoue également: « pour l’instant, il faut y croire ». Des problèmes restent à résoudre: un patient qui fait sa rééducation tout seul chez lui risque-t-il de se blesser ? Une addiction au jeu vidéo peut-elle se développer chez certains malades? Et toujours la question principale: l’effet sur la santé est-il réel ? Malgré les préjugés toujours présents (un jeu vidéo sérieux ? vraiment ?), tous ces porteurs de projets restent persuadés de participer à une évolution majeure. Pour Laurent Michaud, « les preuves n’attendent que les bons jeux, ce n’est qu’une question de temps ». Un enthousiasme de pionnier.
__
Retrouvez tous nos articles traitant des rapports entre médecine et Internet.
Crédits Photo CC Flickr : Miss Pupik, Patrick Q & X-Ray Delta One .
]]>Cliquer ici pour voir la vidéo.
Les images – en libre accès depuis 1994 – ont été composées par un expert d’effet spéciaux et de vidéo 3D connu sous le pseudonyme de ApaczoS. La vidéo est accompagnée par un commentaire :
« Done with one expression, one script called sequencer and a lot of patience:)
Enjoy this short lesson of human anatomy ».
Un logiciel de 3D, du code, de la patience… cela ressemble à la recette des biscuits de grand-mère. Recette dans laquelle manque pourtant un ingrédient fondamental : le cadavre de Joseph Paul Jernigan, exécuté dans une prison du Texas le 5 août 1993. A l’aide de diverses techniques d’imagerie médicale (résonance magnétique, tomographie numérique et cryosection) son corps scanné a fourni la matière première pour cet atlas anatomique de nouveau type, ensuite utilisé à des fins didactiques, diagnostiques – et artistiques.
Une manière de se rappeler (si les scandales récentes autour de l’exposition Our Body, à corps ouvert n’auraient pas suffi) que les corps des condamnés à mort sont utilisés depuis l’Antiquité grecque pour créer des modélisation anatomiques. La pratique, légitimée en Occident à partir de la parution du traité De Humani Corporis Fabrica d’Andreas Vesalius [Carlino, 1994], a ensuite contribué à la création d’une véritable « civilisation de l’anatomie » [Mandressi, 2003]) où le savoir expert, le « regard » de l’anatomiste qui dissèque le cadavre et le livre à la science, rachète le destin du malheureux sujet en lui restituant une fonction sociale.
Le Visible Human Project représente, dans le contexte de la culture médicale, une rupture. Jamais à ce point le regard de l’anatomiste n’avait été rendu accessible au public tout-venant – déplacé au milieu des profanes. Certes, des traités populaires d’anatomie circulaient à partir du XVII siècle (j’en parle dans mon La fabbrica libertina [Casilli, 1997]). Mais le Visible Human Project, par sa nature même, s’appuie sur des formats de diffusion révolutionnaires pour son époque (CDRoms, logiciels et ensuite un site web dédié), qui ne laissent pas de doutes quant au type de public visé.
Le projet représente aussi une rupture dans la culture numérique des années 1990. Les scientifiques du Colorado Health Sciences Center qui ont travaillé à la modélisation anatomique, empruntent – en présentant leur travail aux médias généralistes – au langage des hackers : la numérisation du cadavre de J. P. Jernigan devient alors un exemple de « contre-ingénierie de l’organisme (reverse engineering) », de hacking corporel [Spitzer et Whitlock, 1997].
Le Visible Human Project introduit au cœur même de la cyberculture de la fin du XXe siècle les nouveaux étalons visuels « tridimensionnels, anatomiquement détaillés d’un corps humain normal » [c'est moi qui souligne]. Exeunt les avatars bleus translucides des premiers mondes virtuels en ligne [Casilli, 2005]– l’imaginaire du corps sur Internet passe dans les mains expertes des chercheurs en biomédecine. Richard Satava, l’un des pionniers de la chirurgie virtuelle, déclare à ce sujet qu’avec le Visible Human Project l’avatar des internautes cède le pas à l’ « avatar médical », une simulation biométrique permettant le traçage parfait de l’état de santé des patients par les médecins [Reiche, 1999].
Comme l’avaient bien remarqué certaines voix des cyberculture studies internationales, ces scansions anatomiques mises en ligne ne sont que des « matérialisations perverses » du corps « mis en réseau » rêvé par les premiers utilisateurs d’Internet [Thacker, 1998]. Après les années des corps virtuels et des utopies posthumaines, c’est le primat de l’anatomie traditionnelle, de la norme physique « tout à fait humaine » (all too human) qui est réaffirmé.
Le Visible Human Project opère, selon Thacker [2001] une régression vers une compréhension du corps empreinte d’un « matérialisme de base », aride, brutal. Le format numérique et l’accessibilité en ligne ne sont que des appâts pour le public des utilisateurs du Web. Le corps exposé dans le projet porte les marques fatales d’un encadrement autoritaire, exprime le biopouvoir de l’institution pénitentiaire qui a octroyé le cadavre de Jernigan. La numérisation devient alors une modalité d’enfermement et de supplice. La transposition en ligne du corps humain n’est plus associée à un geste, libre motivé par le plaisir ludique d’une séance de jeux vidéos ou bien par une volonté d’échange au sein d’une communauté en ligne : elle revient à une peine criminelle supplémentaire, comme pour l’anatomie traditionnellement pratiquée sur les condamnés à mort. Le téléchargement dans le réseau de Joseph Paul Jernigan est une expiation posthume de ses crimes [Wheeler, 1996].
Cette démarche de renversement symbolique de la corporéité « virtuelle » de la cyberculture des années 1990, fait de l’assassin exécuté le prototype corporel de l’internaute [Cartwright, 1997] et seconde une réinscription du corps dans la normation de la science médicale. Les codes esthétiques de l’avatar – sa translucidité, son équilibre – s’en retrouvent aussi ébranlés. Le regard des observateurs est capturé par les détails sanguinolents, par les épidermes meurtris, par les mines patibulaires du sujet anatomisé : sa physionomies est décrite comme « inquiétante », « intolérable », « abjecte ».
En commentant une image du Visible Human Project dans laquelle la simulation de la tête de Jernigan affiche une ouverture au niveau de la tempe gauche montrant les nerfs et les muscles, Catherine Waldby [1996 : 3] remarque que
« The Visible Human Male, with his shaved head, bruised, pale flesh, encased in wire frames, open wounds demonstrating the anatomical substrate beneath the flesh, seems to share the same abject, Gothic aesthetic as that habitually used to depict the monster ».
Dans un compte-rendu publié dans le magazine [Dowling, 1997], on retrouve le même goût du macabre :
« Jernigan is back. In an electronic afterlife, he haunts Hollywood studios and NASA labs, high school, and hospitals. »
Depuis la mise en ligne du Visible Human, le Web s’affiche aussi comme « au-delà électronique » inquiétant, qui regorge de fantômes. C’est à ce moment-là que les utopies simplettes du début de la culture du numérique cèdent le pas à des visions plus complexes, où l’enthousiasme coexiste avec un sens de menace constante. Cette nouvelle attitude traverse les usages du Web actuel – et ses mises en scène du corps. Voilà peut-être le véritable ingrédient secret : une tension dialectique inéliminable entre un corps « discipliné » et une expérience somatique qui se rêve libre de toute contrainte biopolitique.
>> Article initialement publié sur : BodySpaceSociety
>> Ilustrations FlickR CC : Truthout.org et Linden Tea
A Carlino (1994) La fabbrica del corpo: Libri e dissezione nel Rinascimento. Turin, Einaudi.
AA Casilli (1997) La fabbrica libertina. De Sade e il sistema industriale, Rome, Manifesto Libri.
AA Casilli (2005) “Les avatars bleus : Autour de trois stratégies d’emprunt culturel au coeur de la cyberculture”, Communications, vol. 77, n. 1, p. 183-209.
C Dowling, (1997) « The Visible Man – The execution and electronic afterlife of Joseph Paul Jernigan », Life, Feb, pp 41-44.
R Mandressi, Le regard de l’anatomiste : Dissections et invention du corps en Occident, Paris, Seuil, 2003.
C Reiche (1999) « Bio(r)evolution : On the Contemporary Military-Medical Complex ». In : C Sollfrank (ed.) Next Cyberfeminist International Reader. Berlin : B_Books Verlag, pp. 25-31.
VM Spitzer et DG Whitlock (1997) NLM Atlas of the Visible Human Male : Reverse Engineering of the Human Body. Boston, MA : Jones and Bartlett.
E Thacker (1998) « …/visible_human.html/digital anatomy and the hyper-texted body ». Ctheory, 2 juin, URL: http://www.ctheory.net/articles.aspx?id=103
E Thacker (2001) « Lacerations : The Visible Human Project, Impossible Anatomies, and the Loss of Corporeal Comprehension ». CultureMachine, n.3, URL: http://www.culturemachine.net/index.php/cm/article/viewArticle/293/278
C Waldby (1996) « Revenants : The Visible Human Project and the Digital Uncanny ». Body and Society, vol. 3, n. 1, pp. 1–16.
DL Wheeler (1996) « Creating a Body of Knowledge : From the Body of an Executed Murderer, Scientists Produce Digital Images ». Chronicle of Higher Education, 2 février.
]]>Et pour cause : Internet occupe une place de plus en plus importante dans notre rapport à l’information, notamment médicale. Même si les médecins français tardent à s’emparer de ce nouvel outil, certains ont franchi le pas.
Nous avons demandé à trois médecins, membres de l’association Médecins Maîtres-Toile de détailler la façon dont ils utilisent Internet. Tous tirent de cette expérience de nombreux avantages en terme de relation avec leurs patients.
Aujourd’hui, les gens sont beaucoup moins influencés par la télévision, qui est un objet passif, que par Internet, qui est un objet actif : le patient est perdu, il ne sait pas où chercher,
nous explique le Dr. Biland, médecin généraliste à Tourcoing. De fait, le médecin sur Internet doit avant tout jouer “un rôle de bibliothécaire” : “il faut écouter le patient, le renvoyer vers une information référencée”.
Car le constat est unanime : le patient de 2010 est pleinement formé à l’utilisation d’Internet et y trouve nombre de ses informations médicales. Il faut donc le guider, l’orienter sur le réseau, mais aussi également lui dire où ne pas aller, puisque les informations qu’on trouve sur le Net ne sont pas toujours entièrement fiables. “Je leur dis d’aller sur des sites fiables et leur déconseille formellement les forums comme ceux de Doctissimo”.
Pour le Dr. Mennecier, hépato-gastroentérologue à l’hôpital Begin à Saint-Mandé, Internet peut faire partie intégrante de la consultation. Renvoyé vers une documentation gérée directement par son médecin, le patient peut avoir accès à une information claire et pertinente. Le Dr. Mennecier a souvent recours à cette pratique, qui permet de retranscrire ce qu’il se dit pendant la consultation, où le patient est parfois assailli d’informations. En ce sens, la pratique d’Internet intervient “en complément de la consultation”, sans la remplacer.
C’est même un véritable moyen d’éducation thérapeutique : “au lieu de répéter dix fois la même chose”, le patient peut facilement retrouver l’information dans la documentation établie par son médecin. Et les avantages sont conséquents : cela lui “permet d’avoir une bonne relation et une bonne adhésion au traitement” et renforce “le sentiment de confiance, car le patient est formé et sait ce que je lui propose comme traitement”.
Pour le Dr. Biland, il n’est pas encore envisageable d’utiliser Internet pour interagir encore plus directement avec ses patients “ça ne présente pas d’intérêt, ça ne veut pas dire que je ne le ferai pas”. De même, il se montre réticent à l’usage des réseaux sociaux, invoquant le problème de la mémoire d’Internet car “l’info que le patient donne aujourd’hui, dans trente ans elle sera toujours visible”.
Le Dr. Mennecier nuance également la généralisation de sa pratique. Selon lui, elle correspond moins aux besoins des médecins généralistes qu’à ceux des médecins spécialisés, dont l’audience et la maladie sont beaucoup plus ciblées, et où la synthèse y est de fait plus simple.
Même si les forums comme ceux de Doctissimo restent contestés, l’information médicale sur Internet est loin d’être inintéressante. Toujours selon le Dr. Mennecier,
L’information médicale sur Internet, c’est un peu comme les logiciels open-source, elle se met à jour plus vite.
Mais “même si l’information médicale est de qualité, rien ne vaut un médecin” ne manque-t-il pas de préciser. Cela reste un domaine à risque, et “le plus gros, ce sont les forums, car ceux qui y vont, ce sont ceux qui ne vont pas bien”.
Si les relations médecins/patients sur Internet semblent se limiter pour le moment à un aspect plutôt informatif de la pratique médicale, d’autres utilisations sont néanmoins possibles.
Depuis quelques années, ce qu’on appelle la télémédecine semble se dessiner comme l’usage le plus prometteur des nouvelles technologies de la communication dans un cadre médical.
Pour l’OMS la télémédecine est “l’utilisation des technologies de l’information pour fournir des soins médicaux et des informations d’un endroit à un autre”. Déjà largement utilisée dans les pays du Nord de l’Europe, elle recouvre des activités très différentes, du travail collaboratif aux dossiers médicaux en ligne en passant par de véritables télé-interventions. Ainsi, si on imagine facilement certaines utilisations des technologies comme les opérations à distance, d’autres pratiques méritent également que l’on s’y attarde.
Le Dr. Ludwig Finkeltain, neuro-psychiatre et psychanalyste, pratique depuis une dizaine d’année la télépsychatrie. Il a d’abord traité par le biais d’Internet des demandes classiques et informelles de renseignements et d’informations. Mais il a depuis mené “conformément à un protocole expérimental” une psychothérapie par e-mail à heure et jour fixes, le tout ponctué par une rencontre mensuelle, notamment pour des patients habitant dans des endroits reculés où ne pouvant pas se présenter directement au cabinet.
Et les résultats sont “remarquables”, puisque que la télépsychatrie a permis de recréer les mécanismes à l’œuvre dans le cadre de consultations classiques. Selon le Dr. Finkeltain, “le processus psychothérapique est également possible par ce moyen”. Mais plus largement, selon lui :
Ma profession, nos diverses spécialités médicales ont énormément à gagner à l’usage d’Internet.
__
Crédit Photo CC Flickr : Tabithahawk, Pasukaru76.
]]>