Intelligence Artificielle (IA) et imagerie médicale : qui est responsable du diagnostic, l’homme ou la machine ?

ia_imagerie_medicale

Intelligence Artificielle (IA) et imagerie médicale : qui est responsable du diagnostic, l’homme ou la machine ?

Auteur(s) : 
Marc Zins

Marc Zins, Responsable du groupe SFR-IA

La question de la responsabilité professionnelle – au sens médico-légal – est centrale dans le futur développement d’outils d’intelligence augmentée utilisant des algorithmes d’apprentissage profond pour la prise en charge médicale des patients.

Avant le développement de ces nouveaux outils d’intelligence augmentée, la question ne se posait pas et, encore aujourd’hui en France, il n’existe pas d’exemple où la responsabilité d’un acte médical diagnostique ou thérapeutique ne repose pas sur un professionnel de santé.

Dans l’avenir, en fonction de l’orientation choisie par les concepteurs d’outils d’intelligence augmentée et de l’intégration de ces outils dans le parcours du patient, cette question de la responsabilité du praticien sera à nouveau posée. Aujourd’hui, il est clairement impossible de prédire quelle réponse sera apportée. Cependant, certaines tendances se dessinent ; la très grande majorité des concepteurs d’algorithmes d’apprentissage profond en imagerie ayant commercialisé ou entamé des phases de test avec leur produit en pratique clinique, les proposent en tant qu’outil « d’aide à la décision » (decision support tool) de même que les CAD (Computer Aided Diagnosis) de la précédente décennie. Cette approche est « assistative » et laisse au professionnel de santé (le radiologue en l’occurrence) la décision finale ; il est libre de suivre les indications de la « première lecture » (approche par triage) ou de la « deuxième lecture » faite par l’algorithme ou de négativer ce qu’il considère être un faux positif de l’IA. Tout autre serait l’approche « adversarial », où le résultat fourni par l’outil d’IA vient remplacer le professionnel de santé qui n’est parfois plus dans la boucle de décision. Cette approche, très minoritaire, est cependant celle choisie par les GAFA ; un exemple emblématique est le développement d’outil de détection automatique de la rétinopathie diabétique, qui shunte tout professionnel de santé et a été enregistré en 2018 par la FDA. Si ce type d’outil devait se développer, la responsabilité du radiologue ou du professionnel de santé pourrait alors être partagée entre la compagnie ayant développé le dispositif médical, la direction de l’établissement et le professionnel de santé.

La profession radiologique a compris plus vite que toute autre profession de santé le potentiel disruptif des outils d’intelligence augmentée. Elle a développé une approche multidisciplinaire permettant d’évaluer scientifiquement l’apport de ces nouveaux outils pour améliorer la qualité des soins pour nos patients. Elle souhaite garder et réclame l’entière responsabilité dans leur utilisation.

En savoir +

Séance scientifique

Séance de communications orales en imagerie intelligence artificielle

08:45 – 10:00

Salle 253 (Niv 2)

Voir programme