D’après la conférence d’Étienne Grass et de David Gruson, membres de la chaire santé SciencesPo, le jeudi 7 février 2019, à l'occasion du cycle 2019 : "Des outils pour faire évoluer le système de santé". 

Étienne Grass préfère parler des IA au pluriel, puisqu’elles sont de différents types : combinaison de données, algorithme supervisé ou non supervisé, etc. Aucune d’entre elles ne peut prétendre avoir passé le test de confusion, réussi lorsque l’interlocuteur ne peut pas dire s’il converse avec un ordinateur ou avec une personne, et imaginé par Alan Turing pour savoir si un ordinateur peut penser. Mais Étienne Grass souligne le grand écart entre le mythe de Turing et la réalité actuelle de l’IA, pas toujours couronnée de sens. Par exemple, si une IA peut facilement exécuter les tâches d’une souris d’ordinateur (ouvrir et déplacer les fichiers), seul le jeu des acteurs humains donne un sens au scénario écrit, après en avoir digéré 300, par l’IA Benjamin.

Gordon E. Moore a décrit en 1975 l’accélération exponentielle de la densité des transistors des microprocesseurs sur une puce de silicium, d’où un stockage de plus en plus important de données. Si l’IA vaut par l’accumulation de données, quelles seront les capacités futures des ordinateurs à stocker de grandes masses de données lorsqu’il n’y aura plus de réserves en silicium ? L’ordinateur quantique y palliera-t-il ? L’IA est aujourd’hui soumise à la loi des réseaux : certains logiciels ne valent que par leur nombre croissant d’utilisateurs (GPS Waze), fruit d’un apprentissage non supervisé ("les données apprennent des données"), facile à construire, mais plus difficile à industrialiser, d’où un probable "cimetière des IA" d’ici cinq ans. Outre le fait que l’IA permettra une recherche inversée (par exemple en croisant les données génomiques avec les données phénotypiques de comportement), ses applications en santé seront nombreuses : des logiciels conversationnels, ou chatbot, paramétrables en une demi-journée, par exemple pour préparer la consultation, ce qui donnera plus de puissance à la relation médecin-malade ; des assistants virtuels ; des programmes de type AlphaGo, capable de stratégie face à un humain utilisant la même stratégie, ou de type Watson, capable de proposer une stratégie thérapeutique à partir de 60 données du patient… Mais "Watson, qui prétend se substituer à l’oncologue pour faire de la clinique, a oublié l’evidence based medicine (EBM) alors que le premier savoir du médecin est de lutter contre les biais cognitifs ».

Il faut garder à l’esprit que "c’est la qualité de la donnée qui fait celle de l’IA !". Par exemple, un programme de lecture des mammographies afin de prédire le cancer du sein pourrait dépasser les capacités des radiologues les plus entraînés, s’il avait 10 000 images supplémentaires, à condition que celles-ci soient bien annotées ! "Dans la transformation du système de santé, l’automatisation et la robotisation auront leur part", notamment la robotic process automation (RPA), grâce aux logiciels répliquant l’activité humaine, et prenant en charge certaines étapes plus rapidement et plus précisément que l’homme. Mais pour que ces robots soient utiles, encore faut-il que l’homme puisse établir une relation de confiance avec eux. Or celle-ci dépend de leur ressemblance avec l’homme, qui doit être peu ou très prononcée.

Enfin, en interagissant dans la relation entre le médecin et le patient, l’IA peut avoir un effet Pygmalion, en augmentant les compétences du patient, de même que les enseignants donnent des cours plus ou moins pertinents selon qu’ils pensent que leurs élèves ont un QI plus ou moins élevé : "L’IA doit amener là où le patient a la certitude d’être aussi expert que le médecin." 

Entre deux écueils : ne pas bloquer le numérique ni le surréglementer

Reste à savoir avec quelle politique publique réguler l’IA et avec quelle éthique. "Le problème éthique principal du numérique est qu’il n’y en a pas assez", résume David Gruson, fondateur de l’initiative Ethik-IA, qui évoque le risque éthique de délégation de la décision médicale et celui de tension entre l’individu et le collectif. Mais quid "d’une IA dont le degré d’apprentissage lui permettrait, pour atteindre ses objectifs de programmation, de concevoir des modalités inattendues, ou qui y arriverait en mentant ?", interroge Étienne Grass. À trop encadrer l’IA, déjà soumise au règlement général de protection des données (RGPD), au droit de la protection du secret médical, et à la réglementation relative aux dispositifs médicaux, auquel tout logiciel d’aide à la prescription est assimilé, ne risque-t-on pas d’encourager le recours aux logiciels développés à l’étranger ?

Dans sa contribution à la révision de la loi de bioéthique (avis 129), le Comité consultatif national d’éthique déplore l’insuffisante ouverture de notre société à l’IA ; il propose d’élargir le devoir d’information du médecin au patient sur le recours à une IA. Le rapport de la mission parlementaire, présidée par le Pr J.-L. Touraine, est en faveur du principe de garantie humaine de l’IA, laquelle est fondée sur l’évaluation du service rendu comme pour toute nouvelle technologie médicale. "On pourrait envisager la création d’un collège de garantie humaine pour une régulation a posteriori, puisque l’IA auto-apprenante produit une nouvelle version d’elle-même", suggère David Gruson. 

RETOUR HAUT DE PAGE