Llamamiento por una IA responsable

12/02/2024

La Inteligencia Artificial (IA) ha venido para quedarse. Es una de esas frases que empiezan a estar muy manidas. Recuerdo, hace años, cuando se decía lo mismo de la “web 2.0”, de las “redes sociales” o ya más recientemente y como consecuencia del impacto de la pandemia, de la “telemedicina” o incluso de la “salud digital”.

Le toca el turno ahora a la IA. Y no es para menos, dado su enorme potencial y la rapidez de sus avances. No obstante, la IA plantea grandes oportunidades, pero también grandes riesgos, especialmente en salud, relacionados con la privacidad y seguridad de los datos, los sesgos algorítmicos y cuestiones éticas y sociales.

Inteligencia artificial, generativa y modelos de lenguaje

La IA se refiere a la capacidad de los algoritmos integrados en los sistemas y herramientas para aprender de los datos para que puedan realizar tareas automatizadas sin programación de cada paso por parte de un humano. Dentro de las técnicas de la IA se encuentra la categoría de la IA generativa que utiliza modelos de aprendizaje automático para entrenar algoritmos en conjuntos de datos para crear nuevos resultados, como texto, imágenes, vídeos y música basados en predicciones hechas a partir de los patrones aprendidos. Se pueden mejorar mediante aprendizaje reforzado con retroalimentación humana.

Un tipo de IA generativa son los Large Multimodal Models (LMM) que pueden aceptar uno o más tipos de entrada de datos y generar diversos resultados que no se limitan al tipo de datos introducidos en el algoritmo. Su adopción (véase ChatGPT) ha sido más rápida que cualquier otra aplicación de consumo en la historia y se prevé un amplio uso de esta tecnología en atención médica, investigación científica, salud pública y desarrollo de medicamentos.

Beneficios y riesgos

La OCDE y la OMS acaban de publicar el pasado mes de enero sendos informes sobre IA en salud.

El de la OCDE, Collective action for responsible AI in health, analiza barreras, riesgos y oportunidades de la IA en salud y propone a los gobernantes avanzar colectivamente hacia el uso responsable de la IA apostando por cuatro áreas: confianza, construcción de capacidades, evaluación y colaboración.

El de la OMS, Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models, se centra en los LMM y pone el foco no solo en los gobiernos sino también en las empresas tecnológicas y en los proveedores sanitarios para un uso apropiado de los LMMs.

Beneficios

En ambos informes se detallan beneficios de la aplicación de la IA en salud:

  1. Diagnóstico y atención médica. Ayudar en la gestión de casos complejos y revisión de diagnósticos de rutina; Reducir la carga de trabajo administrativa de los médicos (se estima entre un 10% y un 30%); Proporcionar conocimientos e informes novedosos basados en activos de datos de salud no estructurados.
  2. Uso guiado por los pacientes. Generar información para mejorar la comprensión de una patología (para pacientes o cuidadores); Asistente de salud virtual; Inscripción en ensayos clínicos.
  3. Tareas administrativas. Ayudar con el papeleo y documentación requerida para la atención clínica; Ayudar en la traducción de idiomas; Completar registros médicos electrónicos; Borrador de notas clínicas después de la visita de un paciente.
  4. Formación. Textos dinámicos adaptados a las necesidades de cada alumno; Conversación simulada para mejorar comunicación y práctica en situaciones diversas; Respuestas a preguntas acompañadas de razonamiento en cadena de pensamiento.
  5. Avanzar en el descubrimiento de fármacos. Generar conocimientos a partir de datos científicos; Generar textos para su uso en artículos científicos, envío de manuscrito o revisión por pares; Analizar y resumir datos para la investigación; Corrección de pruebas; Diseño de fármacos de novo.

Riesgos

De acuerdo con los dos informes, los riesgos de la IA en salud son amplios. A continuación, se detallan algunos:

  • Las soluciones de IA pueden basarse en datos sesgados, lo que lleva a resultados sesgados y perjudiciales o a que prolifere la desinformación.
  • En segundo lugar, las soluciones de IA aprovechan cantidades significativas de datos, lo que genera preocupaciones sobre la privacidad y la seguridad.
  • En tercer lugar, las soluciones de IA pueden ser “no explicables”, lo que afecta la toma de decisiones responsable y basada en evidencia.
  • Las soluciones de IA pueden desplazar puestos de trabajo, dar lugar a una atención despersonalizada o introducir nuevos problemas de responsabilidad.
  • Por último, las soluciones de IA dependen del contexto y son emergentes por naturaleza.

Retos de futuro

Si bien la IA plantea riesgos importantes, estos deberían poder gestionarse hacia lo que se conoce como “IA responsable”, es decir, que sea confiable, ética y minimice los riesgos respetando derechos humanos y valores democráticos.

A priori, el sector sanitario está bien posicionado para gestionar de forma responsable la adopción de la IA dada su experiencia con la gestión del riesgo y evaluaciones de coste efectividad (e.g., evaluaciones de tecnologías sanitarias) así como la monitorización de resultados en salud, seguridad y calidad.

En palabras de la OCDE, es hora de que la comunidad internacional actúe colectivamente para desbloquear el poder de la IA responsable en la salud para beneficio mutuo de los individuos, las comunidades, la sociedad y el planeta.

Comparte: