
La inteligencia artificial ha llegado a la medicina con la promesa de revolucionar la atención al paciente, reducir el agotamiento de los médicos y mejorar la precisión de los diagnósticos. Pero a medida que los médicos confían cada vez más en estas herramientas, no está claro si en realidad están disminuyendo las mismas habilidades que se supone que deben apoyar.
Datos recientes de la comunidad global de Sermo revelan que algunos médicos están preocupados por la adopción de la IA en la asistencia sanitaria. En una encuesta, los miembros mostraron su preocupación por las posibles consecuencias negativas, como la reducción de la vigilancia o el aumento de los prejuicios de la automatización (22%), la eliminación de nuevos médicos (22%) y la erosión del juicio clínico y la empatía (22%).
Algunos miembros creen incluso que sus habilidades ya han empezado a disminuir por el uso de la IA. «Al principio, la IA me parecía el colega perfecto», cuenta un cirujano oncólogo. «Pero me di cuenta de que dejaba de cuestionar y mis músculos de diagnóstico se embotaron. Si no tenemos cuidado, acabaremos siendo unos glorificados aprietabotones».
En opinión de este médico, el éxito de la integración de la IA requerirá un equilibrio meditado. Se trata de abrazar el futuro sin olvidar lo que hace indispensables a los médicos.
¿La IA en medicina es una promesa o un peligro?
La relación de la sanidad con la inteligencia artificial comenzó hace décadas, pero los recientes avances en el aprendizaje automático y el procesamiento del lenguaje natural han acelerado su adopción. Las historias clínicas electrónicas (HCE) introdujeron sistemas básicos de apoyo a la toma de decisiones en los años 90, pero las herramientas actuales de IA pueden interpretar imágenes médicas, predecir el deterioro del paciente e incluso generar documentación clínica en tiempo real.
Los patrones de uso actuales entre los miembros de Sermo revelan la adopción de diversas herramientas. Según una encuesta realizada a más de 2.000 médicos de todo el mundo, el 23% utiliza actualmente la IA para la anotación clínica, mientras que otro 23% la emplea como ayuda al diagnóstico (nota: los encuestados podían seleccionar más de una opción). Las herramientas de estimación de riesgos se llevan el 13% de los usuarios, y el 17% aprovecha la IA para tareas administrativas no clínicas.
Las perspectivas de los afiliados sobre el impacto de la IA en los resultados de los pacientes siguen siendo cautelosamente optimistas. Mientras que el 15% cree que la IA mejorará mucho los resultados de los pacientes y el 54% espera resultados algo mejores, el 11% no ve ninguna diferencia.
Los miembros de Sermo tienen una visión muy positiva del potencial de las herramientas de IA para ayudar a abordar el agotamiento. El agotamiento afecta a casi la mitad de los médicos estadounidenses, según encuestas recientes, y el 66% de los miembros de Sermo encuestados están de acuerdo en que la IA puede reducir significativamente la carga administrativa. Dicho esto, un médico de medicina interna opina que la IA sólo puede llegar hasta cierto punto. «La IA puede reducir la carga de documentación y analizar las tendencias, pero nunca debe sustituir a la anamnesis, la exploración física o la conexión con el paciente», afirman.
Deskilling y sesgo de automatización de los médicos
Según un estudio de 2024, el concepto de «descualificación» en la asistencia sanitaria se refiere a la «erosión gradual de las habilidades y la experiencia clínicas» que puede producirse cuando los médicos se vuelven excesivamente dependientes de los sistemas automatizados. Este fenómeno no es exclusivo de la medicina; por ejemplo, los pilotos han experimentado problemas similares con los sistemas de piloto automático.
Las investigaciones sugieren que la descualificación es una posibilidad real. Un estudio descubrió que, después de que los médicos empezaran a utilizar la detección de pólipos asistida por IA, sus tasas de detección no asistida disminuyeron.
El sesgo de automatización representa otra preocupación importante. Este fenómeno psicológico se produce cuando los humanos confían excesivamente en los sistemas automatizados, aceptando sus resultados sin una evaluación crítica suficiente. En la aviación, el sesgo de automatización ha contribuido a accidentes cuando los pilotos no supieron reconocer y corregir los errores del sistema.
Las implicaciones médicas son igualmente graves. «La IA es un copiloto inestimable, pero los médicos deben seguir siendo el piloto al mando para no perder el juicio clínico básico», insta un oncólogo radioterapeuta en Sermo.
Dados los riesgos, algunos médicos son partidarios de proceder con cautela. «La IA es una herramienta, y toda herramienta puede utilizarse mal, ya sea por torpeza o por quienes tienen intenciones dañinas», afirma un médico de dermatología y oncología quir úrgica en Sermo. «Los médicos deben limitar su uso a la documentación hasta que se demuestre que las aplicaciones para la atención al paciente son seguras».
Los beneficios de la IA para la formación de los médicos, la confianza de los pacientes y la transparencia
En medio de la preocupación por la sobrecarga de trabajo, la tecnología de IA también tiene beneficios potenciales. La IA de radiología ha demostrado una notable precisión en la detección de ciertos cánceres, superando a veces el rendimiento humano. La IA patológica ayuda a identificar anomalías celulares que los ojos humanos podrían pasar por alto.
Para la formación médica, la IA presenta oportunidades de aprendizaje sin precedentes. Los residentes de radiología pueden practicar la interpretación de casos con comentarios inmediatos de la IA, lo que acelera su desarrollo diagnóstico. Los alumnos de cirugía pueden utilizar simuladores impulsados por IA que se adaptan a su nivel de destreza, proporcionando una educación personalizada imposible en los entornos tradicionales.
Es posible que los pacientes aprecien que los médicos les expliquen cómo les ayuda la IA en su atención, considerándola una medida de seguridad adicional más que un sustituto del juicio humano. Los sistemas modernos de IA proporcionan cada vez más resultados explicables, mostrando qué características influyeron en sus recomendaciones. Esta transparencia permite a los médicos evaluar críticamente las sugerencias de la IA y explicar el razonamiento a los pacientes. Cuando los médicos tienen claro que utilizan la IA como herramienta de comprobación de hechos y no para el diagnóstico inicial, puede ayudar a reforzar la confianza del paciente.
Algunos médicos han destacado la importancia de utilizar las herramientas de IA con cuidado, para conseguir sus beneficios sin depender excesivamente de ellas. «La formación de los médicos y las revisiones por pares deben adaptarse», escribe un médico de medicina familiar en Sermo. «Al igual que UpToDate, la IA no es un sustituto del juicio ni de la experiencia».
Otros han pedido normativas y directrices éticas en torno al uso de la IA. «La IA puede mejorar la precisión y la eficacia diagnósticas, pero una dependencia excesiva entraña el riesgo de descalificación y pérdida de confianza del paciente», afirma un especialista en anestesiología y cuidados críticos en Sermo. «Las directrices éticas son esenciales».
En una encuesta realizada en 2024 por la Asociación Médica Americana (AMA), los participantes indicaron que una mayor supervisión era la principal medida reguladora que aumentaría la adopción de herramientas de IA por parte de los médicos. En un informe del mismo año, la AMA señalaba que en EE.UU. no existe una estrategia gubernamental global de supervisión y regulación, pero que el Departamento de Salud y Servicios Humanos (HHS) ha desarrollado una estrategia general para el uso fiable de la IA.
Estrategias de los médicos para evitar la descualificación
Si utilizas IA en tu consulta, puedes tomar medidas para evitar la descualificación y, por extensión, mantener la confianza del paciente. Estas son algunas estrategias que preservan el razonamiento clínico al tiempo que aprovechan las ventajas tecnológicas:
Cuestionamiento crítico
El cuestionamiento crítico puede ayudar a evitar el sesgo de la automatización. Antes de aceptar cualquier recomendación de la IA, pregúntate: ¿Por qué ha sugerido esto la IA? ¿Se ajusta a las directrices establecidas, a mi experiencia clínica y al contexto específico de este paciente? Este enfoque trata a la IA como una sofisticada segunda opinión, más que como una directiva autoritaria.
Práctica continuada de habilidades
Vive según el principio de «úsalo o piérdelo». Incluso cuando la IA pueda automatizar determinadas tareas, los médicos pueden beneficiarse de realizar manualmente las habilidades básicas con regularidad. Esto podría significar interpretar algunos estudios de imagen sin la ayuda de la IA o realizar exámenes físicos antes de revisar las evaluaciones generadas por la IA.
Formación continua
Puedes combatir la sobrecarga de trabajo comprendiendo cómo funcionan los sistemas de IA y sus limitaciones. Los programas de Formación Médica Continuada (FMC) ofrecen cada vez más contenidos centrados en la IA, pero tendrás que buscar activamente estas oportunidades. Los temas incluyen la comprensión del sesgo de los algoritmos, el reconocimiento de las limitaciones de los sistemas y el mantenimiento de las habilidades clínicas en entornos aumentados por la IA.
Formación de diagnósticos independientes
La formación de diagnósticos independientes antes de consultar las recomendaciones de la IA preserva la capacidad de razonamiento clínico. Este enfoque implica desarrollar un diagnóstico diferencial, un plan de tratamiento o una interpretación antes de revisar las sugerencias de la IA. La IA sirve entonces como comprobación de tu razonamiento, en lugar de sustituirlo.
Consulta entre iguales
Puedes mantener el elemento humano en la toma de decisiones médicas mediante la consulta entre colegas. Los casos complejos se benefician de las discusiones entre colegas que la IA no puede reproducir.
Las comunidades como Sermo facilitan estas interacciones entre iguales, permitiendo a sus miembros debatir casos difíciles y compartir experiencias con las herramientas de IA. «La IA es un complemento valioso, pero la dependencia podría costarnos nuestras habilidades clínicas», señala un miembro de medicina de familia. «Son tiempos que dan miedo, y hablar con los colegas me ayuda a navegar por ellos reflexivamente».
Políticas de flujo de trabajo
Incorporar salvaguardias a la práctica diaria. Podrían incluir requisitos de verificación independiente de los resultados obtenidos mediante IA, periodos programados de práctica sin IA o revisión obligatoria por pares de las decisiones asistidas por IA en casos complejos. Puedes consultar los marcos existentes para obtener orientación sobre la selección de modelos de IA y su aplicación ética.
Equilibrar la eficacia asistencial con el arte de la medicina
La integración de la IA en la práctica médica crea tensión entre el aumento de la eficiencia y la preservación de los elementos humanos de la medicina. Aunque la IA puede reducir el tiempo de documentación y agilizar las tareas administrativas, existe el riesgo de que los médicos pierdan la empatía, la intuición y la conexión personal que definen una atención excelente.
Los sistemas de IA, por sofisticados que sean, no pueden reproducir la inteligencia emocional necesaria para una atención eficaz al paciente. Un psiquiatra de Sermo destacó esta preocupación. «Los escribas de IA son sustitutos del molde que corren el riesgo de erosionar la capacidad de los médicos para pensar de forma crítica, al tiempo que añaden costes, problemas de privacidad y riesgos de error».
Dicho esto, los médicos pueden utilizar estrategias prácticas de implementación para ayudar a preservar la conexión humana sin perder los beneficios. Algunos médicos utilizan la implantación selectiva de la IA. En lugar de implantar la IA en todas las áreas de práctica simultáneamente, los médicos pueden elegir aplicaciones específicas en las que los beneficios superen claramente a los riesgos.
Los médicos de urgencias, por ejemplo, podrían utilizar la IA para la documentación del triaje, manteniendo al mismo tiempo los enfoques tradicionales para la comunicación con el paciente y la toma de decisiones clínicas. Esta estrategia selectiva les permite experimentar las ventajas de la IA, al tiempo que conservan sus habilidades en áreas críticas.
Al mismo tiempo, los médicos pueden mantener la confianza educando a los pacientes sobre la IA. Los pacientes tienden a apreciar la transparencia sobre el modo en que la tecnología ayuda a su atención, especialmente cuando los médicos enmarcan la IA como una medida de seguridad adicional.
El reto va más allá de las decisiones individuales de los médicos y abarca las políticas y los incentivos del sistema sanitario. Las organizaciones pueden ayudar a los médicos a utilizar la IA para mejorar la conexión humana en lugar de sustituirla, reconociendo que algunas ineficiencias de la asistencia sanitaria tienen importantes fines relacionales. Esto podría significar diseñar flujos de trabajo que dejen intencionadamente espacio para la interacción directa con el paciente, o dar prioridad a programas de formación que ayuden a los médicos a integrar la IA de forma responsable.
Tu comida para llevar
Los médicos creen que las herramientas de IA ofrecen importantes beneficios potenciales, al tiempo que plantean riesgos para las habilidades clínicas y las relaciones con los pacientes, según muestran los datos de Sermo. Una integración meditada puede ayudar a preservar la esencia humana de la medicina, al tiempo que se aprovecha el poder de la tecnología para mejorar la atención y reducir el agotamiento.
En lugar de aceptar pasivamente las recomendaciones de la IA, puedes comprometerte activamente con estas herramientas, comprendiendo sus capacidades y limitaciones. Puedes buscar formación y educación que te enseñen a utilizar las herramientas de IA y evaluar sus resultados de forma crítica, y mantener la transparencia con tus pacientes sobre cómo y cuándo se utiliza la IA en tu consulta.
La comunidad Sermo ya está desempeñando un papel a la hora de facilitar los debates entre compañeros sobre la implantación de la IA. Allí puedes compartir experiencias, debatir los retos y desarrollar las mejores prácticas en colaboración con otros médicos. Estas conversaciones pueden ayudar a la comunidad médica a aprender colectivamente de las experiencias vividas, en lugar de enfrentarse individualmente a los retos de la IA.
El futuro de la medicina podría implicar que las herramientas de IA se conviertan en algo tan habitual como la HCE o los sistemas de imagen digital. La cuestión no es si los médicos utilizarán la IA, sino cómo integrarán las herramientas preservando el juicio clínico, la empatía y la conexión humana.
Como concluyó un médico de medicina general y urgencias: «La IA debe complementar, no sustituir, la formación médica y el juicio humano».
No, la IA no puede sustituir completamente a los médicos. La tecnología no puede reproducir los elementos humanos de la medicina, como la empatía, la intuición y la conexión personal.
La IA puede ayudar a los médicos a detectar anomalías que de otro modo pasarían por alto. También puede ayudar a reducir el agotamiento de los médicos, lo que a su vez podría mejorar los resultados de la asistencia sanitaria.
La IA podría contribuir a la descualificación o al sesgo de automatización si los médicos no utilizan las herramientas con prudencia.
Los médicos pueden evitar el «deskilling» utilizando el juicio crítico, continuando la práctica de habilidades manuales, continuando su formación, formando diagnósticos independientes de la ayuda de la IA, utilizando la consulta entre compañeros y adoptando políticas de flujo de trabajo como salvaguardias.
Algunas de las herramientas existentes más prometedoras son la IA radiológica, que puede detectar determinados cánceres, la IA patológica, que ayuda a identificar anomalías celulares, y los simuladores utilizados en formación.