Institut de Recherches Economiques et Fiscales

Faire un don

Nos ressources proviennent uniquement des dons privés !

anglais
Accueil » Hôpitaux : l’IA doit être un outil diagnostic et thérapeutique, non un substitut à l’intelligence et au jugement humains

Hôpitaux : l’IA doit être un outil diagnostic et thérapeutique, non un substitut à l’intelligence et au jugement humains

par
409 vues

Un article dans le dernier numéro de Courrier international nous apprend que le recours à l’intelligence artificielle (IA) est de plus en plus fréquent dans les hôpitaux américains, notamment ceux qui connaissent une pénurie de main-d’œuvre. Ce qui, pour le Wall Street Journal, constitue un immense progrès pour une gestion plus efficiente des patients en milieu hospitalier, mais aussi un risque : celui de voir le personnel médical de plus en plus abdiquer l’intelligence et le jugement humains au profit de l’IA, et d’être ainsi relégué au simple rang d’exécutants des procédures mises place par la machine selon les données qui lui sont fournies.

Grâce à l’IA, un patient présentant certains symptômes déclenche une alerte qui conduit à l’établissement d’un diagnostic ainsi qu’à la mise en place de procédures automatiques. En somme, une sorte de « pilotage automatique » capable de guider les soignants dans leur travail au quotidien. Saut que ce système de pilotage automatique n’est pas toujours sans présenter certaines insuffisances. Exemple donné par le WSJ : une infirmière reçoit l’information selon laquelle une patiente présente les symptômes d’une septicémie ; or elle sait que cette patiente est en réalité atteinte d’une leucémie. Un diagnostic erroné (provenant d’une alerte provoquée par le niveau des globules blancs de la patiente), qui donnera lieu à des procédures inadaptées comme une prise de sang.

Mais il y a plus : car à cette « défaillance » de l’IA s’est superposée une autre défaillance, humaine cette fois-ci : au lieu de ne pas tenir compte du diagnostic posé par l’IA ni des procédures subséquemment recommandées, l’infirmière a préféré suivre celles-ci à la lettre, de peur de se voir attribuer une sanction par sa hiérarchie. Or des employés qualifiés et compétents ne devraient jamais s’inféoder de la sorte à l’IA, et il devrait au contraire incomber à toute hiérarchie (à plus forte raison lorsqu’il y va de la vie d’êtres humains comme en milieu hospitalier) de rappeler que les solutions d’IA ont pour seule vocation d’apporter une aide au discernement humain, non de s’y substituer. Le cas rapporté ici par le WSJ n’est pas isolé : ce dernier fait référence à une enquête menée auprès de 1 042 infirmières indiquant que 24% d’entre elles ont agi conformément à ce que disait l’algorithme clinique, alors que ces choix « n’étaient pas dans le meilleur intérêt des patients en fonction de leur examen clinique ».

Abonnez-vous à la Lettre des libertés !

Laissez un commentaire

2 commentaires

Dorylée 30 juin 2023 - 8:14

Le plus gros problème de l’intelligence artificielle est qu’elle n’est pas intelligente. Elle n’a pas la faculté de comprendre, de concevoir, d’innover ou de conjecturer puisque que cela met en cause l’esprit, l’imagination, des concepts qui n’existent pas encore et qu’elle ne peut donc pas prendre en compte mais seulement d’exploiter les données qu’on lui a fournies. D’où la confusion entre septicémie et leucémie…

Répondre
Picot 30 juin 2023 - 8:42

L’IA n’est pas vraiment intelligente et surtout elle supprime, si on laisse faire, les relations humaines. C’est une démarche catastrophique (et organisée) pour une société mais c’est la tendance qu’on cherche à nous imposer par tous les moyens, la paresse et l’inertie aidant. Exemple, entre autres, Doctolib : la machine en action. Plus personne au bout du fil.

Répondre