Les outils d’IA font leur entrée dans la pratique clinique, mais les médecins ne leur accordent pas la même confiance.
Dans un récent sondage Sermo, 60 % des médecins ont déclaré n’avoir que vaguement entendu parler de l’IA d’OpenEvidence, tandis que 37 % ont admis ne pas en avoir entendu parler du tout. Pourtant, lorsqu’on leur demande ce qu’ils pensent du rôle de l’IA dans la prise de décision, la plupart expriment un certain degré d’ouverture : 20 % sont très favorables, 54 % sont prudemment ouverts, tandis que 21 % se situent quelque part entre l’inquiétude et le scepticisme.
Les commentaires des membres reflètent cette division. Comme l’a dit un médecin généraliste, « l’IA d’OpenEvidence, c’est comme avoir un assistant de recherche de haut niveau… un gain de temps considérable… qui nous aide à être plus efficaces, plus précis et à rester à jour, nous libérant ainsi pour ce qui est le plus important : nos patients ». Mais un psychiatre a soulevé le revers de la médaille : « C’est très bien en théorie, mais qui prépare la base de données ? Qui vérifie… Y a-t-il des biais ? Quelles sont les ramifications juridiques ? »
Cet article analyse ces tensions en s’appuyant sur les données d’un sondage Sermo et sur l’avis de la communauté pour explorer ce que pensent réellement les médecins.
Qu’est-ce que la preuve ouverte ?
OpenEvidence AI est un outil d’aide à la décision destiné aux cliniciens, conçu pour répondre à des questions sur le lieu de soins par des recommandations fondées sur des données probantes. Elle s’appuie exclusivement sur des sources fiables et évaluées par des pairs, telles que PubMed et les principales directives, et a été développée par des chercheurs de Harvard et du MIT dans le cadre du programme Platform Accelerate de la Mayo Clinic.
L’accès est limité aux cliniciens vérifiés, dans le but de rendre plus rapide et plus facile l’examen de la littérature et de voir les citations à l’appui. Les premières évaluations dans le domaine des soins primaires montrent qu’OpenEvidence fournit des réponses claires et pertinentes qui tendent à étayer le jugement du médecin plutôt qu’à le remplacer.
Alors, combien de médecins utilisent OpenEvidence ? Eh bien, l’adoption est déjà en hausse. À la mi-2025, plus de 40 % des médecins américains ont déclaré l’utiliser quotidiennement, et il est maintenant intégré dans plus de 10 000 hôpitaux et centres médicaux. Parmi les membres de Sermo, la notoriété est similaire : 60 % déclarent en avoir au moins entendu parler. Mais la notoriété n’est pas toujours synonyme d’adoption, et les médecins l’utilisent de différentes manières.
Dans notre sondage, 21 % des répondants l’ont décrit comme un outil utile pour soutenir les décisions, un spécialiste en pédiatrie faisant remarquer que « la médecine fondée sur des preuves est un principe de notre acuité clinique et OpenEvidence AI peut rendre cela accessible dans les services et au chevet des patients ». Vingt-quatre pour cent des personnes interrogées ont déclaré qu’il s’agissait d’un gain de temps, un pédiatre déclarant : « Il rationalise les décisions cliniques grâce à une prise en charge rapide : « Elle rationalise les décisions cliniques grâce à des réponses rapides et fondées sur des preuves, ce qui améliore la précision et permet de gagner du temps. » Cependant, même les médecins favorables à l’utilisation d’OpenEvidence ajoutent des mises en garde, un généraliste déclarant : « J’utilise fréquemment OpenEvidence comme outil… mais je prendrai une mesure supplémentaire pour vérifier l’information si j’ai des doutes. » D’autres restent sceptiques, 13 % d’entre eux estimant qu’il s’agit d’un outil trop récent ou non testé : « L’IA ne devrait être utilisée qu’à des fins d’information. Le jugement clinique est la clé des soins aux patients », déclare un oncologue.
Pour l’instant, OpenEvidence gagne du terrain parce qu’il promet l’efficacité et l’accès, mais la confiance est encore conditionnelle en raison des nombreuses préoccupations des médecins à l’égard de la technologie.
Comment fonctionne OpenEvidence ?
OpenEvidence n’est pas un simple moteur de recherche, c’est une plateforme d’aide à la décision clinique qui combine la fonctionnalité d’un moteur de recherche médical avec une synthèse et un raisonnement pilotés par l’IA. Les médecins peuvent poser des questions en langage naturel – par exemple, « Quelles sont les dernières données probantes sur l’utilisation des inhibiteurs du SGLT2 en cas d’insuffisance cardiaque chez les patients non diabétiques ? » – et au lieu de produire une longue liste de liens, la plateforme analyse des milliers d’études, de lignes directrices et de revues systématiques évaluées par des pairs afin de générer un résumé concis et référencé.
La principale différence avec des outils tels que PubMed ou Google Scholar est qu’OpenEvidence va au-delà de la recherche documentaire. Plutôt que de demander au médecin de passer au crible des dizaines de résumés et d’interpréter manuellement les preuves, il met en évidence la force et la direction des résultats, fait ressortir les points de consensus ou de controverse et, ce qui est crucial, traduit ces preuves en suggestions cliniques exploitables. Par exemple, si les directives actuelles soutiennent une certaine classe de médicaments pour une population de patients donnée, OpenEvidence affichera directement cette recommandation, ainsi que les preuves à l’appui. Cet outil ne permet pas seulement aux médecins de gagner du temps, il soutient directement la prise de décision fondée sur des données probantes au niveau des soins, en offrant un niveau d’orientation clinique que les moteurs de recherche traditionnels n’ont jamais été conçus pour fournir.
Un autre avantage est que, contrairement aux chatbots d’IA à usage général tels que ChatGPT ou Gemini, qui peuvent générer des réponses plausibles mais non vérifiées (ou souvent hallucinées), OpenEvidence est formé exclusivement sur la littérature médicale fiable et maintient une source d’approvisionnement transparente. Chaque déclaration est liée à des études primaires ou à des directives, ce qui permet aux médecins de valider les preuves avant de les appliquer.
Les cliniciens utilisent OpenEvidence pour identifier les options de traitement fondées sur des données probantes et vérifier leurs décisions par rapport aux lignes directrices et aux essais cliniques, comme le décrit une étude récente.
Principales préoccupations concernant OpenEvicence et l’IA clinique
Malgré tout l’enthousiasme suscité par OpenEvidence, la plupart des médecins utilisant Sermo l’abordent avec prudence.
Lorsqu’on leur a demandé quelles étaient leurs préoccupations concernant l’utilisation de systèmes d’IA comme OpenEvidence dans la pratique, 44 % ont mis en avant la précision et le risque de désinformation, 19 % ont souligné le manque de supervision ou d’explicabilité de la part des médecins, 16 % ont évoqué les risques juridiques ou de responsabilité, et 7 % ont mis en avant la confiance et l’acceptation des patients. Seuls 6 % ont déclaré n’avoir aucune préoccupation majeure, tandis que 8 % ont admis ne pas avoir encore vraiment réfléchi à la question. L’ensemble de ces résultats montre que le chemin vers une adoption plus large dépend moins de l’ajout de nouvelles fonctionnalités que de la résolution des problèmes fondamentaux de confiance, de responsabilité et d’obligation de rendre des comptes.
L’exactitude n’est pas négociable. Les médecins n’adopteront pas OpenEvidence à grande échelle tant qu’ils n’auront pas la certitude que ses résultats sont à la fois fiables et à jour. Comme l’a expliqué un médecin généraliste : « Il m’est arrivé d’essayer d’utiliser des informations générées par l’IA dans les soins aux patients, mais j’ai remarqué des inexactitudes et des informations fausses ou obsolètes. Il reste encore du travail à faire en matière de validation et d’examen avant que je n’utilise régulièrement l’IA dans ma pratique quotidienne. L’exactitude est une question de confiance et, comme l’a dit sans ambages un autre médecin interne, « je ne lui fais pas confiance parce que lorsqu’elle se trompe, elle est ennuyeusement confiante dans sa réponse erronée ». L’excès de confiance dans une réponse inexacte peut être plus dangereux que l’incertitude, car il risque de persuader les cliniciens d’agir sur la base d’informations erronées.
D’autres s’inquiètent non seulement de l’exactitude, mais aussi du volume d’informations qu’OpenEvidence produit. La capacité de l’IA à générer rapidement un contenu soigné et bien écrit crée ses propres risques. Comme l’a souligné un anesthésiste, « étant donné la tendance de l’IA à trouver des liens qui peuvent ne pas avoir de base théorique solide… il y a un risque inconnu de désinformation ». La rapidité de la production d’informations serait également un problème. La quantité et la qualité vérifiable sont donc des préoccupations ». En d’autres termes, la vitesse sans filtrage rigoureux n’apporte aucune valeur et ne fait qu’ajouter au bruit.
La surveillance et la transparence viennent ensuite. Près d’un médecin sur cinq ayant participé à notre sondage a déclaré que le manque de supervision de la part des médecins était un problème majeur. Un médecin généraliste déclare : « L’IA dans la pratique médicale est utile ; cependant, le manque de supervision de la part des médecins reste une préoccupation. » D’autres ont souligné l’importance de savoir non seulement ce que dit l’outil, mais aussi comment il en est arrivé là. Comme l’a fait remarquer un stomatologue, « son utilité dépendra […] de la transparence de ses sources et de ses processus de raisonnement ». Les médecins veulent que la chaîne de preuves soit visible, et non enfouie derrière une boîte noire.
La responsabilité est un autre point d’achoppement. Même si OpenEvidence prend la bonne décision dans 99 % des cas, les médecins savent qu’en cas de problème, la responsabilité leur incombe. « Si vous vous laissez emporter par l’intelligence artificielle et que vous échouez, vous ne pourrez pas vous défendre au tribunal en disant que c’est la faute de l’intelligence artificielle », explique un médecin généraliste. Un autre chirurgien orthopédique s’est exprimé dans le même sens : « La signature au bas du rapport de diagnostic est toujours la Mienne et je suis responsable à des fins médico-légales. » Ces points soulignent pourquoi la capacité à défendre juridiquement la pratique médicale reste un obstacle à l’adoption de l’IA, et tant qu’il n’y aura pas de cadres clairs pour déterminer qui (ou quoi) est responsable, certains médecins n’y toucheront pas.
Le point de vue des patients ne doit pas non plus être négligé. Bien que seulement 7 % des personnes interrogées par Sermo aient mentionné directement la confiance des patients, les commentaires de la communauté montrent qu’elle pèse lourd dans l’esprit des médecins. « Je pense qu’elle pourrait être exploitée par les grandes entreprises pharmaceutiques ou les préjugés raciaux, comme l’a déjà montré l’IA », a averti un ophtalmologiste, ce qui renvoie à un point plus général sur le lien entre la confiance des patients et l’intégrité du système lui-même.
Un autre médecin généraliste a exprimé l’élément humain en termes plus simples : « La vérité est que l’IA est prometteuse, mais elle ne devrait jamais remplacer la chaleur humaine. C’est un outil formidable, mais il ne doit pas se substituer à la médecine traditionnelle ». En effet, les patients ont besoin d’être rassurés sur le fait que les soins cliniques restent ancrés dans la compassion humaine.
Enfin, une petite minorité (6 %) n’a fait part d’aucune préoccupation majeure. Pour eux, les avantages l’emportent déjà sur les risques. Comme l’a déclaré un psychiatre, « je suis un grand fan de l’IA dans ma pratique. Elle me facilite la tâche. » Ces voix montrent la direction que prend la trajectoire, même si tous leurs pairs ne sont pas encore prêts à les suivre.
Dans l’ensemble, les données suggèrent que les médecins voient un potentiel dans l’OpenEvidence, mais ils ont besoin de la preuve qu’elle ne les exposera pas à des risques ou n’érodera pas la confiance des patients. Tant que les fondements juridiques ne seront pas en place, OpenEvidence ne sera tout simplement pas utilisé à sa pleine mesure ou, comme c’est le cas pour certains médecins, ne sera pas utilisé du tout.
Qu’est-ce qui inciterait davantage de médecins à adopter cette technologie ?
Si l’exactitude et la responsabilité sont les principaux obstacles, qu’est-ce qui pourrait faire pencher la balance vers l’adoption? Les données du sondage Sermo indiquent une réponse directe : la preuve et la confiance. La principale demande des médecins concerne la validation par des pairs, 37 % d’entre eux déclarant qu’il s’agit du facteur qui les encouragerait le plus. Comme l’a dit un interniste, « cela pourrait être utilisé comme un outil une fois que l’exactitude a été vérifiée ». Tant que la fiabilité n’est pas confirmée par des études en conditions réelles, de nombreux médecins ne sont pas prêts à s’en servir au quotidien.
L’approbation institutionnelle suit de près (21 %). Les médecins souhaitent que les hôpitaux, les sociétés médicales ou des experts respectés soutiennent l’outil. Un radiologue a bien résumé la situation : « La validité et la fiabilité de l’outil doivent être vérifiées et approuvées par des institutions de confiance et des leaders d’opinion clés dans de multiples contextes cliniques avant d’être largement adoptées. » De telles approbations contribuent à partager la responsabilité de confier l’IA.
L’intégration des dossiers médicaux électroniques vient ensuite (17 %), et ce pour de bonnes raisons. Comme l’a fait remarquer un médecin généraliste, « OpenEvidence s’intègre aux dossiers médicaux électroniques, suggérant des recherches pertinentes et des diagnostics potentiels basés sur les informations du patient ». L’intégration de l’outil dans les flux de travail existants est ce qui le rend véritablement utile sur le lieu de soins.
Les fonctions permettant de gagner du temps (16 %) sont également importantes, mais les médecins ne veulent pas que la rapidité se fasse au détriment de la précision ou de la surveillance. Et si une petite minorité (8 %) reste fermement opposée, elle semble être l’exception.
Pour la plupart des médecins, la voie à suivre avec l’IA est simple : démontrer la précision, instaurer la confiance par la validation et l’approbation et rendre l’outil facile à utiliser dans les systèmes quotidiens.
Ce que vous pouvez en tirer
Les médecins de Sermo considèrent que l’IA d’OpenEvidence est prometteuse, mais qu’elle n’a pas encore fait ses preuves. Ses principaux atouts, tels que la rapidité, l’accès aux preuves et l’aide à la prise de décision, sont tempérés par des inquiétudes concernant sa précision et la responsabilité en cas d’erreur.
La plupart des médecins ne considèrent pas l’informatique comme un substitut au jugement clinique, mais plutôt comme un complément qui pourrait leur faire gagner du temps et réduire leur charge de réflexion s’il est validé et intégré de manière responsable.
Grâce à la validation par des pairs, au soutien institutionnel et à l’intégration transparente du flux de travail, les opinions sur OpenEvidence pourraient passer d’une curiosité prudente à un outil quotidien fiable pour les médecins.
Participez à la conversation sur Sermo
Comment utilisez-vous les outils d’IA comme OpenEvidence dans la pratique, ou pourquoi restez-vous en retrait ? Partagez votre expérience et apprenez de vos pairs sur Sermo.