Javier García Alegría, médico internista: “Nunca debemos dejar que la IA decida quién entra en cuidados paliativos”

Javier García Alegría, médico internista: “Nunca debemos dejar que la IA decida quién entra en cuidados paliativos”

Con una larga carrera a sus espaldas, el especialista en medicina interna analiza los avances y los dilemas éticos que está implicando ya el uso de la inteligencia artificial por médicos y pacientes

Hemeroteca – Una inteligencia artificial aprende a diferenciar las células del cáncer de las sanas de forma precoz

Para el veterano médico internista Javier García Alegría, tener al alcance una herramienta como la inteligencia artificial es como darle a todo el mundo la posibilidad de pilotar un jumbo. Aunque las ventajas que ofrece la tecnología son enormes, como evitar los tiempos de papeleo y de diagnóstico, se atisban algunos riesgos y dilemas éticos que deberíamos afrontar cuanto antes. 

En una conferencia titulada “Dilemas éticos de la Inteligencia Artificial en Medicina”, el director del Área de Medicina Interna del Hospital Costa del Sol de Marbella (Málaga) y expresidente de la Federación de Asociaciones Científico Médicas Españolas (FACME) repasó hace unos días los aspectos más candentes de esta nueva situación, dentro de una jornada organizada por la Confederación de Sociedades Científicas de España (COSCE) y la Fundación Ramón Areces.

En una conversación posterior, profundizamos con el doctor García Alegría sobre el impacto de la IA en el día a día de los médicos, su preocupación por problemas como el “desentrenamiento” profesional y dilemas éticos como la delegación de decisiones en máquinas que no tienen emociones ni el sentido de cercanía con los pacientes que da el ejercicio de la carrera médica.   

¿Les llegan muchos pacientes con un diagnóstico hecho por la inteligencia artificial?

Sí, bueno, esto ya viene sucediendo desde hace tiempo con el uso de Google. Es natural que intentemos tener certezas, sin embargo, estas tecnologías ofrecen una lista posibilista y no probabilística. Por ejemplo, si uno le dice que está cansado, te ofrecen una lista de enfermedades que es intimidatoria, claro, porque incluye todo lo posible.

¿Y esto ha empeorado con chatGPT?

Sí, porque la herramienta es muy poderosa. Una de las preocupaciones que tenemos es el uso por personas sin cualificación. Es como si nos dieran la capacidad de conducir un Boeing a todos. Eso sería un caos. Y el problema es que esto es una tecnología abierta para todos, por lo que el uso puede ser muy orientado y con criterio, o absolutamente desacertado. Sobre todo lo que está ocurriendo con el propio ChatGPT y las recomendaciones a adolescentes respecto a su salud mental, que sabemos que un 35% son desacertadas. Y no lo estamos viendo todo: ¿qué puede estar pasando en la vida real?  


El doctor Javier García Alegría, durante la conferencia sobre IA en medicina y dilemas éticos.

¿Qué es la cibercondría?  

Es un término acuñado por expertos en salud mental para los usuarios de internet que se obsesionan por buscar asuntos de salud. Algunos de ellos con resultados nefastos. Te invito a que pruebes una búsqueda de alguna evidencia científica de lo más sólida, como un post infarto. Por ejemplo, si buscas “las estatinas son buenas”, obtienes 1.500.000 páginas, mientras que con “las estatinas son malas” aparecen 500.000. No sabemos dónde va a bucear el usuario. La cibercondría genera mucha angustia y esto seguramente se esté produciendo ya con la IA, por eso se han planteado acuñar el término de “IA-condría” o “chatbot-condría”.

Hemos hablado de cuál es el efecto en los pacientes, pero ¿cuál es la actitud que están teniendo los médicos en general ante la IA?

Hay una gran incertidumbre. Yo creo que la profesión no corre riesgo. Al revés. Creo que puede verse potenciada en sus capacidades diagnósticas, terapéuticas y en la rapidez para hacer las tareas. Nos puede ayudar con la realización de informes o la búsqueda de información. Tareas que no aportan valor al paciente y que llevan mucho tiempo. La IA también nos puede ayudar a ser más certeros en el diagnóstico, en la elección de medicaciones, sobre todo en pacientes muy complejos que tengan muchas enfermedades o tomen muchísimos fármacos, porque es imposible tener en la memoria todas las interacciones medicamentosas en un paciente que toma ocho fármacos. Ya teníamos algunas herramientas, pero las actuales mejoran mucho las que disponemos.

Cita usted un caso en el que le había ayudado a determinar un diagnóstico mucho más rápido de lo que habría sido sin esa herramienta. ¿Cómo fue? 

Bueno, en realidad han sido varios. Me centré en ese porque era muy ilustrativo, porque llevaba dos años sin diagnóstico. Este era un caso de una mujer de mediana edad con síntomas complejos y que tenía afectación articular, cutánea y afectación que llamamos visceral. Era una enfermedad muy infrecuente, hay muy pocos casos descritos en el mundo. Yo había leído sobre ello, pero no había visto ningún caso. Y haciendo unas preguntas muy específicas a la IA, me llevó muy poco hallar el diagnóstico. Seguramente sin ella habría hecho el diagnóstico, pero habría tardado días.

Porque la máquina tiene muchos datos a la vez y la memoria del médico, por mucho que quiera, no tiene todo presente, ¿no?

Es muy difícil, sobre todo en enfermedades que no vamos a ver en la vida. O hemos visto un caso hace 25 años. Por eso yo paso consulta con la IA abierta. Si un fármaco acaba de salir al mercado y el paciente toma otros siete, tienes que decirle si hay interacciones medicamentosas, y esto en un minuto te lo ha dicho.

Yo paso consulta con la IA abierta. Si un fármaco acaba de salir al mercado y el paciente toma otros siete, tienes que decirle si hay interacciones medicamentosas, y esto en un minuto te lo ha dicho

Hemos hablado de los pros, pero una posible desventaja es el llamado “desentrenamiento profesional”. ¿En qué consiste y qué se ha visto?

Esto es una preocupación profunda de la profesión. En algunos estudios se ha visto que cuando se introducen estas herramientas de IA en servicios de aparato digestivo, con súper especialistas en hacer colonoscopias, en tres meses reducen la capacidad de identificación de lesiones de pólipos. Y esto se produce porque han delegado en la herramienta y, por tanto, están perdiendo destrezas personales.

Y el día que la IA deje de funcionar o cambien el programa, ¿tendremos profesionales peores que antes de haberla puesto?

Efectivamente. Y no solamente eso. Yo tengo una preocupación especial sobre cuál va a ser el impacto en los médicos jóvenes que están empezando a entrenar con IA. La adquisición de competencias y de conocimientos en medicina es muy lenta y requiere el estudio, la reflexión, la experiencia y los modelos profesionales. Y, ojito, a ver si vamos a tratar de sustituir la experiencia, la reflexión, el estudio, porque tengamos una herramienta de inteligencia artificial.

Cuando se introducen estas herramientas de IA en servicios de colonoscopia, en tres meses los especialistas reducen la capacidad de identificación de lesiones de pólipos. Están perdiendo destrezas personales

A esto se suma el efecto “caja negra”, ¿delegamos en la máquina y nos ofrece resultados sin que sepamos muy bien qué ha hecho?

Sí, pero fíjate, yo he reflexionado mucho acerca de cómo los médicos adquieren competencias y se convierten en expertos, y también tenemos una caja negra mental. Es decir, sabemos cómo se hace algo, pero no sabemos por qué, desarrollamos razonamientos de tipo automático. Pero hemos aprendido a practicar un pensamiento que se llama de tipo 2, que es analítico, es muy reflexivo. Me preocupa que los jóvenes confundan el acceso a la información con conocimiento y experiencia.

Decía usted que en algunos lugares se está planteando dejar decisiones importantes en manos de la inteligencia artificial, como si alguien entra o no en la UCI o cuidados paliativos. ¿Qué riesgo implicaría algo así?

Se plantea en algunos estudios y la propia formulación me genera un cierto rechazo psicológico, o una salvaguardia de prudencia. Cuando los médicos estamos atendiendo a personas en sus peores circunstancias, esto requiere un tacto, un conocimiento del paciente, una compasión que yo no creo que pueda delegarse a una máquina. Me parece imposible delegar una máquina a alguna de las experiencias vitales que yo he tenido hablando con un enfermo joven que tiene que decidir porque tiene una enfermedad avanzada, si va a querer ventilación mecánica de traqueotomía o si una persona va a requerir o quiere llegar a una situación o no de cuidados intensivos. No creo que esto sea deseable , nunca deberíamos dejar decisiones así a la IA. Yo creo que estos dilemas éticos nunca los debería solventar la inteligencia artificial. Nosotros somos seres humanos.

Cuando los médicos estamos atendiendo a personas en sus peores circunstancias, esto requiere un tacto, un conocimiento del paciente, una compasión que yo no creo que pueda delegarse a una máquina

Hay casos en que los algoritmos, no necesariamente una IA, han sido injustos, ¿a qué tipo de sesgos nos enfrentamos?

En realidad es que casi toda la información que se está manejando y que la IA busca es hecho a partir de fuentes en inglés. Esto ya es un primer sesgo. Segundo, en la investigación científica han quedado en segundo plano durante muchos años, y siguen quedando, las mujeres, los niños, los ancianos y las poblaciones desfavorecidas. En el cribado para trasplante de riñón en Estados Unidos, por ejemplo, el algoritmo discriminaba a los afroamericanos y hay una demanda colectiva. 

Produce un enorme contraste estar hablando de medicina personalizada y ver el deterioro del servicio público, como el caso de la sanidad andaluza y el retraso de diagnóstico de cáncer de mama

Personalmente, creo que hay una disociación entre las decisiones políticas, la evidencia científica y la organización. Una vez que se introduce una técnica, una decisión sanitaria que afecta a muchas personas, te tienes que asegurar es que el programa de cribado de cáncer de mama sea exitoso y que se cumplan el porcentaje de mujeres a las que sigues y se aseguren que los tiempos de respuesta son completos. Pero solamente se preocupan de una parte, de hacerse las fotos, de hacer declaraciones, pero luego es evidente que no se ha evaluado cuál es el impacto de cobertura y los tiempos de respuesta. Esto es una obligación de los políticos, que deberían escuchar más a los técnicos.

Solamente se preocupan de hacerse las fotos y de hacer declaraciones. Los políticos deberían escuchar más a los técnicos

Otro dilema clásico es si es necesario informar de todo a los pacientes si no les podemos responder con terapias. ¿Cómo se preserva el derecho a no saber?

Bueno, es que el derecho a no saber es delicado, sobre todo en poblaciones con expectativas de vida cortas. De hecho, en nuestro país nos enfrentamos a menudo con un dilema: la legislación dice que tenemos la obligación de informar al paciente, pero muchas familias, en un intento de protegerle, te piden que no informes al paciente. Por suerte, hay herramientas y técnicas y acercamientos profesionales de buena relación médico-enfermo donde tú percibes hasta dónde quiere conocer. Pero decirle a una persona de 90 años que su expectativa de vida corta, que tiene un cáncer de próstata es una faena, porque no vas a cambiar su el pronóstico vital, pero los últimos años de su vida va a estar pensando que tiene un cáncer de próstata. No sé si me explico.

Sobre el tema de la responsabilidad, si un día te opera un robot y se equivoca, ¿de quién es la culpa? ¿Del programador, del hospital o del médico?

Esto es uno de los problemas que no está resuelto. Porque no se va a saber qué parte es responsable. Aunque yo creo que va a seguir siendo una responsabilidad personal o institucional. Me preocupa más cuando hay discordancia con las opiniones de un enfermo. Ojo con algunos tests, en especial los genéticos. Porque, ¿de qué le sirve a un paciente saber que tiene el 3% de probabilidades de tener un cáncer de páncreas o el 1% de tener un linfoma? Quiero decir, solo va a generar malestar y ansiedad. En definitiva, prudencia, valoración del impacto, vigilancia respecto al uso y consejos a los pacientes. Y que los profesionales tengan un entrenamiento apropiado para usar las mejores herramientas. Esas serían mis conclusiones.