Cómo la IA de OpenEvidence está transformando la toma de decisiones clínicas

Un cuadrado rojo con letras "OE" blancas en el centro, rodeado de cinco círculos sólidos y contorneados en rojo, blanco, negro y gris sobre un fondo rosa claro.

Las herramientas de IA se están abriendo camino en la práctica clínica, pero los médicos no las reciben con una confianza uniforme.

En una encuesta reciente de Sermo, el 60% de los médicos afirmó que sólo había oído hablar vagamente de la IA de OpenEvidence, mientras que el 37% admitió que no había oído hablar de ella en absoluto. Sin embargo, cuando se les preguntó qué opinaban sobre el papel de la IA en la toma de decisiones, la mayoría expresó cierto grado de apertura: el 20% se muestra muy favorable, el 54% se muestra cautelosamente abierto, mientras que el 21% se sitúa entre la preocupación y el escepticismo.

Los comentarios de los miembros reflejan esta división. En palabras de un médico: «La IA de OpenEvidence es como tener un asistente de investigación de primer nivel… un enorme ahorro de tiempo… nos ayuda a ser más eficientes, precisos y a estar al día, liberándonos para lo más importante: nuestros pacientes». Pero un psiquiatra planteó la otra cara: «Genial en teoría, pero ¿quién prepara la base de datos? ¿Quién la comprueba? ¿Existen sesgos? ¿Cuáles son las ramificaciones legales?»

Este artículo desvela esas tensiones, utilizando los datos de la encuesta Sermo y la opinión de la comunidad para explorar lo que realmente piensan los médicos.

¿Qué es OpenEvidence?

OpenEvidence AI se ha creado como una herramienta de apoyo a la toma de decisiones orientada al médico, diseñada para responder a preguntas en el punto de atención con recomendaciones basadas en pruebas. Se nutre exclusivamente de fuentes fiables y revisadas por expertos, como PubMed y las principales directrices, y ha sido desarrollada por investigadores de Harvard y el MIT a través del programa Mayo Clinic Platform Accelerate.

El acceso está limitado a los médicos verificados, con el objetivo de que sea más rápido y fácil revisar la bibliografía y ver las citas de apoyo. Las primeras evaluaciones en atención primaria muestran que OpenEvidence ofrece respuestas claras y pertinentes que tienden a respaldar el criterio del médico en lugar de sustituirlo.

¿Cuántos médicos utilizan OpenEvidence? Bueno, la adopción ya está aumentando. A mediados de 2025, más del 40% de los médicos estadounidenses afirmaban utilizarlo a diario, y ahora está integrado en más de 10.000 hospitales y centros médicos. Entre los miembros de Sermo, el conocimiento es similar: el 60% dice que al menos ha oído hablar de él. Pero conocimiento no siempre significa adopción, y los médicos lo utilizan de distintas formas.

En nuestra encuesta, el 21% la describió como una herramienta útil para apoyar las decisiones, y un especialista en pediatría señaló: «La Medicina basada en la evidencia es un principio de nuestra perspicacia clínica y OpenEvidence AI puede hacerla accesible en las salas y junto a la cama». Otro 24% afirmó que ahorra tiempo, y un pediatra dijo: «Agiliza las decisiones clínicas con respuestas rápidas y basadas en pruebas, mejorando la precisión y ahorrando tiempo». Aun así, incluso los médicos que lo apoyan añaden advertencias, y un médico de familia afirma: «Utilizo OpenEvidence con frecuencia como herramienta… pero daré un paso adicional para verificar la información si tengo sospechas». Otros se mantienen escépticos, y el 13% la califica de demasiado nueva o no probada: «La IA debe utilizarse sólo con fines informativos. El juicio clínico es la clave de la atención al paciente», afirma un oncólogo.

Por ahora, OpenEvidence está ganando terreno porque promete eficacia y acceso, pero la confianza sigue siendo condicional debido a las muchas preocupaciones que los médicos tienen respecto a la tecnología.

¿Cómo funciona OpenEvidence?

OpenEvidence no es un simple motor de búsqueda, sino una plataforma de apoyo a la toma de decisiones clínicas que combina la funcionalidad de un motor de búsqueda médica con la síntesis y el razonamiento basados en IA. Los médicos pueden plantear preguntas en lenguaje natural -por ejemplo, «¿Cuál es la evidencia más reciente sobre el uso de inhibidores de SGLT2 para la insuficiencia cardiaca en pacientes no diabéticos?»- y, en lugar de producir una larga lista de enlaces, la plataforma explora miles de estudios revisados por expertos, directrices y revisiones sistemáticas para generar un resumen conciso y referenciado.

La diferencia clave con respecto a herramientas como PubMed o Google Scholar es que OpenEvidence va más allá de la recuperación bibliográfica. En lugar de exigir al médico que examine docenas de resúmenes e interprete manualmente las pruebas, destaca la fuerza y la dirección de los hallazgos, señala los puntos de consenso o controversia y, lo que es más importante, traduce las pruebas en sugerencias clínicas prácticas. Por ejemplo, si las directrices actuales apoyan una determinada clase de fármaco en una población de pacientes dada, OpenEvidence mostrará directamente esa recomendación, junto con la base de pruebas que la respalda. La herramienta no sólo ahorra tiempo a los médicos, sino que apoya directamente la toma de decisiones basada en pruebas en el punto de atención, ofreciendo un nivel de orientación clínica que los motores de búsqueda tradicionales nunca estuvieron diseñados para proporcionar.

Otra ventaja es que, a diferencia de los chatbots de IA de uso general, como ChatGPT o Gemini, que pueden generar respuestas plausibles pero no verificadas (o, con frecuencia, alucinadas), OpenEvidence se entrena exclusivamente con literatura médica de confianza y mantiene una fuente transparente. Cada afirmación está vinculada a estudios primarios o directrices, lo que permite a los médicos validar las pruebas antes de aplicarlas.

Los médicos utilizan OpenEvidence para identificar opciones de tratamiento respaldadas por pruebas y cotejar sus decisiones con directrices y ensayos clínicos, como se describe en un estudio reciente.

Principales preocupaciones sobre OpenEvicence y la IA clínica

A pesar de todo el entusiasmo en torno a OpenEvidence, la mayoría de los médicos de Sermo siguen abordándolo con cautela.

Cuando se les preguntó qué les preocupaba sobre el uso de sistemas de IA como OpenEvidence en la práctica, el 44% señaló la precisión y el riesgo de desinformación, el 19% destacó la falta de supervisión o explicabilidad por parte del médico, el 16% planteó riesgos legales o de responsabilidad, y el 7% señaló la confianza y aceptación del paciente. Sólo el 6% dijo que no tenía preocupaciones importantes, mientras que el 8% admitió que aún no había considerado realmente la cuestión. En conjunto, estos resultados muestran que el camino hacia una adopción más amplia depende menos de añadir nuevas funciones y más de abordar las cuestiones fundamentales de la confianza, la responsabilidad y la rendición de cuentas.

La precisión no es negociable. Los médicos no adoptarán OpenEvidence a gran escala hasta que estén seguros de que sus resultados son fiables y actuales. Como explicó un médico de familia: «He tenido casos en los que he intentado utilizar información generada por IA en la atención al paciente, pero he observado inexactitudes e información falsa o anticuada. Hay que seguir trabajando en la validación y revisión antes de que utilice la IA con regularidad en la práctica diaria». La precisión consiste en mantener la confianza, y como dijo sin rodeos otro médico de Medicina Interna: «No confío en ella porque cuando se equivoca, se muestra irritantemente confiada en su respuesta errónea». El exceso de confianza en una respuesta inexacta puede ser más peligroso que la incertidumbre, porque se corre el riesgo de persuadir a los médicos para que actúen basándose en información errónea.

A otros les preocupa no sólo la corrección, sino el volumen de información que produce OpenEvidence. La capacidad de la IA para generar rápidamente contenidos pulidos y bien redactados crea sus propios riesgos. Como advirtió un anestesista, «dada la tendencia de la IA a encontrar conexiones que pueden no tener ni siquiera una base teórica sólida… existe un riesgo desconocido de desinformación». La rapidez de la generación de información también sería un problema. Así que la cantidad y la calidad verificable son motivo de preocupación». En otras palabras, la rapidez sin un filtrado riguroso no aporta ningún valor y simplemente se suma al ruido.

A continuación vienen la supervisión y la transparencia. Casi uno de cada cinco médicos de nuestra encuesta dijo que la falta de supervisión por parte de los médicos era un problema importante. Un médico dice: «La IA en la práctica médica es útil; sin embargo, la falta de supervisión por parte de los médicos sigue siendo preocupante». Otros destacaron la importancia de saber no sólo lo que dice la herramienta, sino cómo ha llegado hasta ahí. Como señaló un estomatólogo: «Su utilidad dependerá de… la transparencia de sus fuentes y procesos de razonamiento». Los médicos quieren que la cadena de pruebas esté visible, no enterrada tras una caja negra.

La responsabilidad es otro punto conflictivo. Aunque OpenEvidence acierte el 99% de las veces, los médicos saben que cuando algo sale mal, la responsabilidad sigue siendo suya. «Si te dejas llevar por ella y fallas, no puedes defenderte ante un tribunal diciendo que fue culpa de la inteligencia artificial», explicó un médico. Otro cirujano ortopédico habló en el mismo sentido: «La firma al pie del informe diagnóstico es siempre MÍA y soy responsable a efectos médico-legales». Estos puntos ponen de relieve por qué la capacidad de defender legalmente la práctica médica sigue siendo un obstáculo para la adopción de la IA, y hasta que no haya marcos claros sobre quién (o qué) es responsable, algunos médicos no la tocarán.

Tampoco pueden pasarse por alto las perspectivas de los pacientes. Aunque sólo el 7% de los encuestados por Sermo señalaron directamente la confianza de los pacientes, los comentarios de la comunidad muestran que pesa mucho en la mente de los médicos. «Creo que puede ser explotada por las grandes farmacéuticas o por prejuicios raciales, algo que ya han demostrado que puede hacer la IA», advirtió un oftalmólogo, lo que habla de un punto más amplio sobre la vinculación de la confianza del paciente con la integridad del propio sistema.

Otro GP captó el elemento humano en términos más sencillos: «La verdad es que la IA es prometedora, pero nunca debe sustituir a la calidez humana. Como herramienta es estupenda, pero no como sustituto de la medicina tradicional». De hecho, los pacientes necesitan la seguridad de que la atención clínica sigue basándose en la compasión humana.

Por último, una pequeña minoría, el 6%, no manifestó ninguna preocupación importante. Para ellos, los beneficios ya superan a los riesgos. En palabras de un psiquiatra: «Soy un gran fan de la IA en mi consulta. Me facilita el trabajo». Estas voces muestran hacia dónde se dirige la trayectoria, aunque no todos sus colegas estén aún preparados para seguirla.

En conjunto, los datos sugieren que los médicos ven potencial en OpenEvidence, pero necesitan pruebas de que no les expondrá a riesgos ni erosionará la confianza de los pacientes. Hasta que no se establezcan las bases jurídicas, OpenEvidence simplemente no se utilizará en toda su extensión o, como en el caso de algunos médicos, no se utilizará en absoluto.

¿Qué animaría a más médicos a adoptar la tecnología?

Si la precisión y la responsabilidad son los mayores obstáculos, ¿qué inclinaría realmente la balanza hacia la adopción? Los datos de la encuesta Sermo apuntan a una respuesta directa: la prueba y la confianza. La principal petición de los médicos fue la validación revisada por expertos, con un 37% que afirmó que es el factor que más les animaría. En palabras de un internista: «Podría utilizarse como herramienta una vez verificada su precisión». Hasta que no se confirme la fiabilidad en estudios del mundo real, muchos médicos no están preparados para apoyarse en él día a día.

Le sigue de cerca el respaldo institucional (21%). Los médicos quieren que los hospitales, las sociedades médicas o los KOL respetados respalden la herramienta. Un radiólogo lo resumió muy bien: «La validez y la fiabilidad de la herramienta deben ser verificadas y respaldadas por instituciones de confianza y líderes de opinión clave en múltiples entornos clínicos antes de su adopción generalizada». Los avales de este tipo ayudan a compartir la responsabilidad de confiar en la IA.

La integración con la HCE es la siguiente (17%), y por buenas razones. Como señaló un médico de cabecera, «OpenEvidence se integra con las historias clínicas electrónicas, sugiriendo investigaciones relevantes y diagnósticos potenciales basados en la información del paciente». Integrar la herramienta en los flujos de trabajo existentes es lo que la hace realmente útil en el punto de atención.

Las funciones que ahorran tiempo (16%) también son importantes, pero los médicos no quieren que la rapidez se produzca a expensas de la precisión o la supervisión. Y aunque una pequeña minoría (8%) sigue oponiéndose firmemente, parece ser la excepción.

Para la mayoría de los médicos, el camino a seguir con la IA es sencillo: demostrar precisión, generar confianza mediante la validación y los avales, y hacer que la herramienta sea fácil de usar dentro de los sistemas cotidianos.

Tu comida para llevar

Los médicos de Sermo consideran que la IA de OpenEvidence es prometedora, pero aún no está probada. Sus mayores ventajas, como la rapidez, el acceso a las pruebas y el apoyo a la toma de decisiones, se ven atenuadas por la preocupación acerca de su precisión y de quién debería ser responsable si se equivoca.

La mayoría de los médicos no lo ven como un sustituto del juicio clínico, sino más bien como un complemento que podría ahorrarles tiempo y reducir su carga de pensamiento si se valida e integra de forma responsable.

Con la validación revisada por expertos, el respaldo institucional y la integración perfecta en el flujo de trabajo, las opiniones sobre OpenEvidence podrían pasar de ser una curiosidad cautelosa a una herramienta fiable y cotidiana para los médicos.

Únete a la conversación en Sermo

¿Cómo utilizas en la práctica herramientas de IA como OpenEvidence, o por qué te estás conteniendo? Comparte tu experiencia y aprende de tus compañeros en Sermo.