“Como toda nueva tecnología, la inteligencia artificial… también puede ser mal utilizada y causar daño”, calentó Tedros Adhanom Ghebreyesus, Director General de la Organización Mundial de la Salud (OMS).
Para regular y gobernar la IA, la OMS publicó una nueva guía que proporciona seis principios para limitar los riesgos y maximizar las oportunidades intrínsecas de la IA para la salud.
Gobernando la IA
El informe de la OMS sobre la ética y la gobernanza de la inteligencia artificial para la salud señala que la IA puede utilizarse y, en algunos países ricos ya se utiliza, para mejorar la velocidad y precisión del diagnóstico y la detección de enfermedades; ayudar con la atención clínica; fortalecer la investigación en salud y el desarrollo de medicamentos; y apoyar diversas intervenciones de salud pública, incluida la respuesta a los brotes y la gestión de los sistemas de salud.
La IA también podría empoderar a los pacientes para que tengan un mayor control de su propia atención médica y permitir que los países con escasos recursos superen las brechas de acceso a los servicios de salud.
Sin embargo, el informe advierte contra la sobreestimación de sus beneficios para la salud, especialmente a expensas de las inversiones y estrategias básicas necesarias para lograr la cobertura sanitaria universal.
Los desafíos se mantienen
El nuevo informe de la OMS señala que las oportunidades y los riesgos están vinculados y advierte sobre la recopilación y el uso poco éticos de datos de salud, los sesgos codificados en los algoritmos y los riesgos para la seguridad del paciente, la ciberseguridad y el medio ambiente.
Además, advierte que los sistemas capacitados principalmente con datos recopilados de personas en países de ingresos altos pueden no funcionar bien para las personas en entornos de ingresos bajos y medios.
En este contexto, la OMS sostiene que los sistemas de inteligencia artificial deben diseñarse cuidadosamente para reflejar la diversidad de entornos socioeconómicos y de atención de la salud y estar acompañados de capacitación en habilidades digitales y participación de la comunidad.
Esto es especialmente importante para los trabajadores de la salud que requieren alfabetización digital o reciclaje para lidiar con máquinas que podrían desafiar la toma de decisiones y la autonomía de proveedores y pacientes.
Principios rectores
Dado que las personas deben mantener el control de los sistemas de atención de la salud y las decisiones médicas, el primer principio rector es proteger la autonomía humana.
En segundo lugar, los diseñadores de IA deben salvaguardar la privacidad y la confidencialidad proporcionando a los pacientes un consentimiento informado válido a través de los marcos legales adecuados.
Para promover el bienestar humano y el interés público, el tercer principio exige que los diseñadores de IA garanticen los requisitos reglamentarios de seguridad, precisión y eficacia, incluidas las medidas de control de calidad.
Como parte de la transparencia y la comprensión, el cuarto principio requiere que la información se publique o documente antes de diseñar o implementar la tecnología de IA.
Aunque las tecnologías de IA realizan tareas específicas, deben ser utilizadas de manera responsable, en condiciones adecuadas, por personas debidamente capacitadas, que es el cuarto principio.
El quinto es garantizar la inclusión y la equidad para que AI para la salud sea accesible al mayor número posible de personas, independientemente de su edad, género, etnia u otras características protegidas por los códigos de derechos humanos.
El principio final insta a los diseñadores, desarrolladores y usuarios a evaluar de forma transparente las aplicaciones durante el uso real para determinar si la IA responde de manera adecuada y apropiada a las expectativas y requisitos.