Crida per una IA responsable

12/02/2024

La Intel·ligència Artificial (IA) ha vingut per quedar-s’hi. És una d’aquelles frases que comencen a estar molt utilitzades. Recordo, fa anys, quan es deia el mateix de la “web 2.0”, de les “xarxes socials” o ja més recentment i com a conseqüència de l’impacte de la pandèmia, de la “telemedicina” o fins i tot de la “salut digital”.

Ara li toca el torn a la IA. I no n’hi ha per menys, atès el seu enorme potencial i la rapidesa dels seus avenços. No obstant això, la IA planteja grans oportunitats, però també grans riscos, especialment en salut, relacionats amb la privacitat i seguretat de les dades, els biaixos algorísmics i qüestions ètiques i socials.

Intel·ligència artificial, generativa i models de llenguatge

La IA es refereix a la capacitat dels algorismes integrats en els sistemes i les eines per aprendre de les dades perquè puguin realitzar tasques automatitzades sense programació de cada pas per part d’un humà. Dins de les tècniques de la IA hi ha la categoria de la IA generativa que utilitza models d’aprenentatge automàtic per entrenar algorismes en conjunts de dades per crear nous resultats, com ara text, imatges, vídeos i música basats en prediccions fetes a partir dels patrons apresos. Es poden millorar mitjançant un aprenentatge reforçat amb retroalimentació humana. Un tipus d’IA generativa són els Large Multimodal Models (LMM) que poden acceptar un o més tipus d’entrada de dades i generar diversos resultats que no es limiten al tipus de dades introduïdes a l’algoritme. La seva adopció (vegeu ChatGPT) ha estat més ràpida que qualsevol altra aplicació de consum a la història i es preveu un ampli ús d’aquesta tecnologia en atenció mèdica, investigació científica, salut pública i desenvolupament de medicaments

Beneficis i riscos

L’OCDE i l’OMS acaben de publicar el mes de gener passat sengles informes sobre IA en salut.

El de l’OCDE, Collective action for responsible AI in health, analitza barreres, riscos i oportunitats de la IA en salut i proposa als governants avançar col·lectivament cap a l’ús responsable de la IA apostant per quatre àrees: confiança, construcció de capacitats, avaluació i col·laboració.

El de l’OMS, Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models, se centra en els LMM i posa el focus no només als governs sinó també a les empreses tecnològiques i als proveïdors sanitaris per a un ús apropiat dels LMMs.

Beneficis

A tots dos informes es detallen beneficis de l’aplicació de la IA en salut:

  1. Diagnòstic i atenció mèdica. Ajudar en la gestió de casos complexos i revisió de diagnòstics de rutina; Reduir la càrrega de treball administrativa dels metges (s’estima entre un 10 i un 30%); Proporcionar coneixements i informes nous basats en actius de dades de salut no estructurats.

  2. Ús guiat por los pacientes. Generar informació per millorar la comprensió d’una patologia (per a pacients o cuidadors); Assistent de salut virtual; Inscripció en assaigs clínics.

  3. Tasques administratives. Ajudar amb la paperassa i la documentació requerida per a l’atenció clínica; Ajudar a la traducció d’idiomes; Completar registres mèdics electrònics; Esborrany de notes clíniques després de la visita d’un pacient.

  4. Formació. Textos dinàmics adaptats a les necessitats de cada alumne; Conversa simulada per millorar comunicació i pràctica en situacions diverses; Respostes a preguntes acompanyades de raonament en cadena de pensament.

  5. Avançar en el descobriment de fàrmacs. Generar coneixements a partir de dades científiques; Generar textos per al seu ús en articles científics, enviament de manuscrit o revisió per parells; Analitzar i resumir dades per a la investigació; Correcció de proves; Disseny de fàrmacs de novo.

Riscos

D’acord amb tots dos informes, els riscos de la IA en salut són amplis. A continuació, se’n detallen alguns:

  • Les solucions d’IA poden basar-se en dades esbiaixades, cosa que porta a resultats esbiaixats i perjudicials o que proliferi la desinformació.
  • En segon lloc, les solucions d’IA aprofiten quantitats significatives de dades, cosa que genera preocupacions sobre la privacitat i la seguretat.
  • En tercer lloc, les solucions d’IA poden ser “no explicables”, cosa que afecta la presa de decisions responsable i basada en evidència.
  • Les solucions de IA poden desplaçar llocs de treball, donar lloc a una atenció despersonalitzada o introduir nous problemes de responsabilitat.
  • Finalment, les solucions de IA depenen del context i són emergents per naturalesa.

Reptes de futur

Si bé la IA planteja riscos importants, aquests haurien de poder gestionar-se cap al que es coneix com a “IA responsable”, és a dir, que sigui fiable, ètica i minimitzi els riscos respectant drets humans i valors democràtics.

A priori, el sector sanitari està ben posicionat per gestionar de manera responsable l’adopció de la IA atesa la seva experiència amb la gestió del risc i avaluacions de cost efectivitat (e.g., avaluacions de tecnologies sanitàries) així com la monitorització de resultats en salut, seguretat i qualitat. En paraules de l’OCDE, és hora que la comunitat internacional actuï col·lectivament per desbloquejar el poder de la IA responsable en la salut per a benefici mutu dels individus, les comunitats, la societat i el planeta.

Comparteix: