El uso de grandes modelos multimodales de inteligencia artificial (IA) en el campo de la salud podría aumentar las brechas de desigualdad existentes en América Latina y el Caribe si no se cuenta con datos de calidad, confiables y certeros y si no se mantiene la ética, la confidencialidad y la seguridad de la información.

Esta advertencia de especialistas en salud pública de la región coincide con la expresada por voceros de la Organización Mundial de la Salud (OMS), que recientemente exhortaron a los proveedores de salud a ser conscientes de los riesgos de usar la IA, especialmente en países de bajos y medianos ingresos.

“Todos estamos entrando en una nueva era de uso responsable de la IA en la salud pública y la medicina clínica”, afirmó Alain Labrique, director de salud digital e innovación de la OMS en una reunión de prensa celebrada en enero para presentar la guía elaborada por esa organización sobre la ética y gobernanza de esos modelos, dirigida a reguladores, desarrolladores y usuarios.

Los grandes modelos multimodales, conocidos como LMM por sus siglas en inglés, son un tipo de IA generativa, capaces de aceptar múltiples entradas de datos, como textos, videos e imágenes, para generar diversos resultados. Se basan en la tecnología usada para modelos de texto como ChatGPT.

Esta tecnología tiene infinidad de usos para el cuidado de la salud, incluyendo el diagnóstico, la investigación científica y el desarrollo de medicamentos, la formación médica, la administración, y el uso por parte de los pacientes para que ellos mismos evalúen sus síntomas.

Se podrían implementar sistemas de IA para analizar grandes cantidades de datos médicos, como imágenes, escaneos y registros médicos electrónicos, con el fin de proporcionar diagnósticos y planes de tratamientos personalizados, e incluso para predecir los resultados de los pacientes.

¿Es factible en América Latina?

Walter Curioso, vicerrector de investigación de la Universidad Continental de Lima, Perú, subraya que si la región quiere contar con sistemas digitales interoperables y que la información esté disponible para los profesionales de salud autorizados y les permita tomar decisiones certeras, en primer lugar, se necesitan “disponibilidad de datos que sean de calidad, confiables, disponibles y oportunos”.

“No sólo necesitamos datos sino también un plan de acción, una hoja de ruta para el desarrollo y aplicación de las herramientas de inteligencia artificial en salud, que contemple a los diferentes actores claves del sector salud”, prosigue Curioso, doctorado en informática médica.

Advierte que el uso indiscriminado de la IA generativa en salud pueda llevar a crear historias clínicas, informes o reportes inexactos, sesgados o incompletos “si no se tiene el contexto bien determinado y la mayor cantidad de datos de calidad disponibles”.

“Todo ello puede resultar muy perjudicial si se usa esa información para tomar decisiones en el campo de la salud”, sin contar que la filtración de datos personales “puede comprometer el bienestar de las personas y conllevar a múltiples riesgos y problemas en las instituciones de salud”, alerta.

“No sólo necesitamos datos sino también un plan de acción, una hoja de ruta para el desarrollo y aplicación de las herramientas de inteligencia artificial en salud, que contemple a los diferentes actores claves del sector salud”, declara.

Dania Lima, académica del Departamento de Salud Digital de la Facultad de Medicina de la Universidad Nacional Autónoma de México, coincide con su colega y destaca otro riesgo: debido a que la mayoría de las empresas relacionadas con la IA no divulgan públicamente la gestión de sus datos, se pueden generar sesgos.

“La población de América Latina y el Caribe puede exhibir comportamientos distintos, tener prevalencias de enfermedades diferentes, y manifestar síntomas y signos que difieren de las poblaciones europea, asiática o estadounidense, de donde generalmente se obtienen estos datos”, sostiene.

“Un riesgo crucial es el aumento de la brecha de desigualdad, especialmente si no se garantiza el acceso a la digitalización ética de los datos de salud. Esto podría generar un sesgo al basar las decisiones en una población extranjera, aumentando los riesgos de errores”, comenta.

Para prevenir este riesgo, Labrique opina que “es realmente esencial que reconozcamos las variaciones existentes entre países y en la disponibilidad de datos sólidos […] “estamos trabajando muy estrechamente para permitir que los países garanticen que tienen la buena gobernanza que se requiere para guiar y administrar el uso de la IA en el sector salud”.

A Lima también le preocupa que “los costos asociados implicarían que sólo un pequeño porcentaje de la población tendría acceso a este tipo de diagnóstico, tratamiento o evaluación de pronóstico”.

En ese sentido, Curioso cree que las asociaciones público privadas “pueden ofrecer un enfoque prometedor para abordar los desafíos éticos y de gobernanza al fomentar la colaboración entre gobiernos, las entidades del sector privado e incluso las organizaciones de la sociedad civil”.

“Estas asociaciones podrían adoptar los principios éticos, las mejores prácticas y otras directrices de tal manera que puedan contribuir a garantizar que los sistemas de inteligencia artificial sean diseñados e implementados de manera coherente con los valores y consideraciones éticas de la sociedad”, incluyendo la formación y capacitación de los profesionales y los pacientes en temas relacionados con la inteligencia artificial y ciberseguridad.

“Estos modelos, al igual que otros tipos de inteligencia artificial, también pueden presentar riesgos para la ciberseguridad que podrían poner en peligro la información de los usuarios, de los pacientes o la fiabilidad de los algoritmos y la prestación de los servicios de salud”, precisa.