Probablemente, mientras escribo esta entrada del blog, se logra terminar la maqueta de la presentación y Vd. finaliza su lectura, la mayor parte de lo que diga aquí ya corresponderá a algún tiempo pasado. Si cuando se iniciaba la e-salud ya parecía que corría, ahora la inteligencia artificial (IA) vuela. Elegir hablar de IA en salud tiene este riesgo. Disculpe si llego tarde.
Mi percepción de la IA en salud se parece mucho a los debates, precauciones, temores y circunstancias de cuando empezamos a hablar sobre las posibilidades e impacto, primero de Internet en salud y, al poco, de la e-salud[1]. A finales del XX intuíamos que algo relevante estaba ocurriendo, pero poco sabíamos de adónde podía llegar. Y, al final, el impacto de la e-salud ha sido mucho mayor al que imaginábamos. Con la IA me parece que está ocurriendo algo muy parecido, la diferencia es, probablemente, que mientras que hemos tardamos más 20 años en asimilar la e-salud, con la IA los tiempos de implantación serán mucho más cortos.
Si hacemos un poco de memoria, recordaremos que con la aparición de los sitios web de salud surgió la preocupación sobre si este acceso libre a información “no controlada”, de fuentes que podían ser poco confiables, confundiría a los pacientes más que les ayudaría y afloró, también, la incertidumbre de cómo podía afectar a la relación entre pacientes y profesionales sanitarios[2]. Poco a poco, empezamos a diferenciar entre fiabilidad y credibilidad de la información en Internet[3] y a analizar los estilos de navegación de los internautas que nos pusieron sobre la pista de que los (nuestros) pacientes habían aprendido a usar Internet para conocer más sobre su enfermedad y para complementar la información a la que tenían acceso por los cauces formales, diferenciando el “polvo de la paja”[4]. Las sociedades profesionales, revistas científicas de peso entre profesionales, las asociaciones de pacientes o las ONGs empezaron a ofrecer información contrastada, ampliando la oferta de información que los internautas podían consultar. Los sistemas de acreditación de sitios web[5], por cierto, algunos todavía vigentes, fueron perdiendo la fuerza con la que nacieron y su sentido. Poco a poco, le fuimos perdiendo el miedo a esta nueva herramienta y pasamos a verla como una aliada para la alfabetización en salud de la población, para lograr mayor implicación de los pacientes o para gestionar mejor la demanda. La extensión de los smartphones, y de las tarifas planas de datos que aparecieron poco tiempo después, terminaron de democratizar el acceso a la información y trajeron un mundo de nuevas aplicaciones abriendo el camino de la e-salud.
Ahora con la IA imagino que le pasará lo mismo que me ocurre a mí, que cada vez que uso alguna de estas herramientas encuentro que es capaz de hacer algo nuevo y que hay nuevas aplicaciones que amplían mi horizonte. La “máquina” parece que aprende, pero el usuario también aprende a “usar la máquina” de diferentes maneras y para lograr distintos resultados. El horizonte, por tanto, está abierto. La incertidumbre también.
Ahora, el procesamiento de lenguaje natural (aplicaciones denominadas de Lenguaje de Gran Tamaño, LLM), potenciadas por las técnicas de Big Data y el “aprendizaje profundo”, han transformado la forma en que podemos usar el conocimiento y, abren nuevas posibilidades en la manera de interactuar de los pacientes con el sistema de salud y con los profesionales sanitarios[6]. Las aplicaciones y posibilidades que aparecen en el mercado no paran de crecer y parece que el límite para emplearlas es nuestra propia capacidad para asimilar cómo hacerlo. En los sitios web estábamos limitados a las páginas en nuestro idioma, luego contamos con traductores automáticos de esa información “plana” a la que podíamos acceder. Ahora podemos interactuar con cualquier asistente virtual en prácticamente cualquier idioma[7].
Las aplicaciones, por ejemplo, de LLM tienen múltiples aplicaciones dada su capacidad para comprender, interpretar y generar expresiones, textos, resúmenes, informes, tal y como haría una inteligencia humana. Esto ha despertado suspicacias sobre su impacto, voces que reclaman su regulación, o temores sobre el rol de los actuales perfiles profesionales.
Ahora están apareciendo estudios que describen la capacidad de las aplicaciones LLM para el diagnóstico o la toma de decisiones en la clínica, que estamos comprobando supera, en algunos aspectos, al juicio clínico de profesionales experimentados[8],[9],[10]. El problema de la credibilidad y de la fiabilidad persiste de diversas maneras y debemos ser conscientes de que los algoritmos para “entrenar a la máquina” son tan humanos que incorporan nuestros sesgos, porque usan datos no siempre actualizados, que proceden de estudios con fuentes de datos no equivalentes o con sesgos habituales en investigación que, al final, hacen que unos colectivos sociales reciban más y mejor atención que a otros, comprometiendo la equidad. La calidad de los datos es ahora más importante que nunca antes.
Para que puedan interactuar con nosotros estas aplicaciones de IA aprenden y lo hacen como aprendemos nosotros, de los libros, de los artículos científicos, de los que se cruza por redes sociales y, también, de lo que le preguntamos, o le informamos, cuando compartimos con la “máquina” nuestros propios informes y estudios, vídeos o fotografías. La diferencia estriba en su ingente capacidad de asimilación de toda la información, su capacidad de procesar expresiones, sentimientos, estados de ánimo, o frases con doble sentido como lo hacemos nosotros en nuestro día a día para interpretar lo que ocurre a nuestro alrededor. Pero con mucha más capacidad de análisis al combinar un ingente número de inputs. Disponen de una capacidad desconocida hasta ahora y solo reservada al mundo de la ficción, como la del protagonista de una Mente Maravillosa o el de Rain Man, pero no están exentos de los mismos estereotipos y prejuicios que los que generamos a través de nuestros estudios y actuaciones. De hecho, sabemos que están presentes en los datos de entrenamiento, los recursos disponibles, los modelos e incluso en los algoritmos[11].
El debate sobre el horizonte en el que estas máquinas inteligentes[12],[13] van a encontrar su papel en la provisión de servicios de salud, en la toma de decisiones, en el control de procesos, su rol en la investigación en salud, o sobre la ética en el desarrollo y en el uso de IA[14] están abiertos, como ya lo estuvieron hace unos años con las TIC. Personalmente, creo que estos debates son necesarios, enriquecen la calidad del resultado, pero no debemos olvidar que como antaño, corregir estos sesgos forma parte de las regulaciones con respecto a la ética al investigar, al relacionarse con los pacientes, o a la hora de tomar decisiones clínicas. Avanzar en nuevos compromisos al emplear las aplicaciones de IA no debiera demorarse, como tampoco promover la formación para explotar estas herramientas en beneficio de los pacientes.
Por cierto, ya no recuerdo si escribí esto hace un par de días o si le pedí a mi aplicación de LLM que lo escribiera por mí. ¿Vd. lo sabe?
Referencias
[1] Eysenbach G. What is e-health? J Med Internet Res. 2001;3(2):E20.
[2] Mira JJ, Llinás G, Lorenzo S, Aibar C. Uso de Internet por médicos de primaria y hospitales y percepción de cómo influye en su relación con los pacientes. Aten Primaria. 2009; 41:308-14.
[3] Mira JJ, Llinás G, Tomás O, Pérez-Jover V. ¿Qué hace que una página sanitaria en Internet tenga mayor credibilidad para los internautas? Revista de Calidad Asistencial 2005;20:239.
[4] Mira JJ, Llinás G, Pérez-Jover V. Habits of Internet users and usefulness of websites in Spanish for health education. World Hospitals and Health Services. 2008;44:30-5.
[5] Eysenbach G. Improving the quality of Web surveys: the Checklist for Reporting Results of Internet E-Surveys (CHERRIES). J Med Internet Res. 2004;6(3):e34.
[6] Nagi F, Salih R, Alzubaidi M, Shah H, Alam T, Shah Z, Househ M. Applications of Artificial Intelligence (AI) in Medical Education: A Scoping Review. Stud Health Technol Inform. 2023;305:648-651.
[7] Aggarwal A, Tam CC, Wu D, Li X, Qiao S. Artificial Intelligence–Based Chatbots for Promoting Health Behavioral Changes: Systematic Review. J Med Internet Res 2023;25:e40789.
[8] Cabral S, Restrepo D, Kanjee Z, Wilson P, Crowe B, Abdulnour RE, Rodman A. Clinical Reasoning of a Generative Artificial Intelligence Model Compared With Physicians. JAMA Intern Med. 2024;184(5):581-583.
[9] Taha A, Saad B, Taha-Mehlitz S, Ochs V, El-Awar J, Mourad MM, Neumann K, Glaser C, Rosenberg R, Cattin PC. Analysis of artificial intelligence in thyroid diagnostics and surgery: A scoping review. Am J Surg. 2024;229:57-64.
[10] Yasmin F, Shah SMI, Naeem A, Shujauddin SM, Jabeen A, Kazmi S, Siddiqui SA, Kumar P, Salman S, Hassan SA, Dasari C, Choudhry AS, Mustafa A, Chawla S, Lak HM. Artificial intelligence in the diagnosis and detection of heart failure: the past, present, and future. Rev Cardiovasc Med. 2021;22(4):1095-1113.
[11] Caliskan A, Bryson JJ, Narayanan A. Semantics Derived Automatically.
from Language Corpora Contain Human-Like Biases. Science. 2017;356(6334):183–186.
[12] Quttainah M, Mishra V, Madakam S, Lurie Y, Mark S. Cost, Usability, Credibility, Fairness, Accountability, Transparency, and Explainability Framework for Safe and Effective Large Language Models in Medical Education: Narrative Review and Qualitative Study. JMIR AI. 2024;3:e51834.
[13] Newman-Toker DE, Sharfstein JM. The Role for Policy in AI-Assisted Medical Diagnosis. JAMA Health Forum. 2024;5(4):e241339.
[14] Keskinbora KH. Medical ethics considerations on artificial intelligence. J Clin Neurosci. 2019;64:277-282.