11 Juil

L’Intelligence Artificielle en santé… de quoi parle-t-on ?

 

 

Face à un sujet qui inquiète, le Centre Hospitalier Esquirol organise une conférence ce mercredi 11 juillet. Parmi les intervenants, David Gruson, ancien directeur d’hôpital, membre de la chaire santé de Sciences Po, et auteur d’un polar d’anticipation, SARRA, une intelligence artificielle. C’est un « polar bioéthique »… Entretien.

 

Pourquoi parle-t-on de plus en plus d’intelligence artificielle ?

 

La période que l’on vit n’est pas forcément une période d’innovation technologique. Le cadre de l’intelligence artificielle a été posé depuis assez longtemps.

En revanche, il y a une rupture industrielle : de plus en plus d’acteurs sont capables de concevoir des applications pratiques, à partir du cadre général de l’intelligence artificielle.

Dans le secteur de la santé, il y a déjà des solutions fonctionnelles.

 

Par exemple ?

 

L’Intelligence Artificielle, c’est simplement un dispositif artificiel d’aide à la décision, ou de décision par algorithme. L’algorithme est un outil mathématique, qui propose des orientations à partir du traitement d’un très grand nombre de données.

Dans le champ de la santé, on travaille sur les examens de laboratoires, l’exécution des analyses biologiques, la dispensation de médicaments…

Et puis il y a le diagnostic médical lui-même.

En avril dernier, l’agence de sécurité sanitaire américaine a donné sa première autorisation officielle pour une intelligence artificielle de reconnaissance d’images.
On entraîne l’algorithme à reconnaître des clichés d’imagerie, pour essayer de repérer s’il y a les signes d’une pathologie.
L’utilisation qui a été autorisée par l’agence américaine est une solution de diagnostic des rétinopathies diabétiques. Une maladie de l’œil qui est causée par le diabète et qui concerne des dizaines de milliers de personnes en France.

On est sur des solutions fiables techniquement et qui sont appelées à se développer plus fortement dans les prochains mois.

 

Quelles seraient les applications proches du quotidien des habitants de Nouvelle Aquitaine ?

 

Le déploiement de ces solutions peut apporter des gains majeurs pour l’accessibilité des soins.

On peut essayer de combiner des solutions de téléconsultation et d’intelligence artificielle, avec des consultations spécialisées ayant recours à un algorithme. Le médecin envoie des clichés numériques, et il obtient très rapidement un diagnostic spécialisé. C’est un domaine qui se développe notamment sur les mammographies.

Vous avez aussi des solutions mises en œuvre dans le télé-suivi de patients, dans le champ des maladies chroniques et métaboliques comme le diabète et qui permettent de mieux suivre la glycémie avec des gains en espérance de vie.

Tout ceci est en phase de test, il n’y a pas eu de validation en France. Mais cela va sans doute venir assez vite, et c’est un des enjeux de la prochaine révision de la loi de bioéthique qui interviendra à l’automne.

 

La France a-t-elle du retard ?

 

On est dans un moment charnière.

Si la France appliquait ceinture et bretelles sur des questions de réglementation, l’innovation numérique en santé se développerait ailleurs, avec un effet de double pénalisation.
Une pénalisation à court terme, parce que ces solutions ne seraient pas accessibles pour les patients français ; et une pénalisation dans un deuxième temps : une fois la solution d’intelligence artificielle développée ailleurs, il y a fort à parier que les patients et les professionnels français en demanderaient l’importation, avec le risque de se voir imposer les conditions financières d’accès à ces solutions.

Le principe clé, c’est la notion de garantie humaine. Poser un principe général de supervision de l’algorithme, mais sans le définir trop précisément, pour ne pas bloquer l’innovation.

 

Votre livre est un roman d’anticipation. C’est un moyen de vulgariser le sujet pour mieux expliquer les risques ?

 

Ces enjeux ne doivent pas rester l’affaire de spécialistes, ils doivent être partagés avec le grand public. L’objet de SARRA, c’est d’essayer de faire prendre conscience que face à la technologie, il ne faut pas se mettre en position de refus ou de blocage ; sinon, on se mettrait à l’écart de tous les gains pour la prise en charge des patients.

Mais il y a aussi des risques dont il faut prendre conscience.

Contrairement à ce qui est véhiculé, ce n’est pas un risque de domination de l’homme par la machine.
Il n’y a pas le début d’une preuve technique ou scientifique qu’un tel risque serait possible.

Ce sont des choses plus identifiées, et ciblées.

Le premier risque, c’est une forme d’évaporation de la capacité du patient à consentir au soin.
Si vous êtes patient et que l’algorithme vous propose une solution thérapeutique recommandée à 99% sur la base de centaine de milliers de cas, votre capacité à dire non existera peut-être toujours en droit, mais en pratique elle sera très réduite.
L’idée, c’est de mieux accompagner le patient dans son consentement au soin, pour l’aider à prendre du recul.

Le deuxième risque qui est décrit, c’est celui d’une minoration de la prise en compte de la personne, par rapport à la logique collective de l’algorithme.
L’algorithme traite des données en très grand nombre, et il donne des solutions basées sur l’intérêt du plus grand nombre.
Or il peut y avoir des situations dans lesquelles l’intérêt collectif ne correspond pas à l’intérêt individuel. C’était intéressant de se mettre dans le cas extrême d’une crise épidémique majeure où on peut avoir une tension très forte entre l’intérêt individuel et l’intérêt collectif, pour essayer de mesurer quelles pourraient être les techniques à mettre en place pour diminuer ce risque de minoration de la prise en compte des personnes.