Todos los ámbitos de nuestra vida se han modificado con el avance de la Inteligencia Artificial (IA), incluso en el sector salud. La Organización Mundial de la Salud (OMS) presentó una guía con nuevas normas éticas para garantizar un uso seguro de los Modelos de Lenguaje Multimodal (LMM), un tipo de IA generativa.
Te puede interesar: Inteligencia artificial generativa se perfila como sucesora de ChatGPT
Este tipo de inteligencia artificial cuenta con la facultad para revolucionar la atención médica, pero también conlleva diversos riesgos. Los LMM también son capaces de generar textos y otros contenidos a partir del procesamiento masivo de datos.
A pesar de que los LMM se están utilizando en actividades del sector sanitario, la OMS advirtió que ciertas utilidades no están probadas y no se sabe si ofrecerán los beneficios esperados. Por lo tanto, es necesario establecer ciertas normas con fines de seguridad.
¿En qué actividades médicas se pueden utilizar los LMM?
La Organización Mundial de la Salud detalló que cada vez los LMM son de utilidad en estas actividades médicas:
- Diagnóstico de síntomas
- Investigación de tratamientos
- Desarrollo de fármacos
- Tareas administrativas sanitarias
¿Cuáles son los riegos potenciales de la IA en la salud?
La guía documenta algunos de los potenciales riesgos de los LMM de la Inteligencia Artificial en materia de salud como:
- Sesgo de automatización: Se generan declaraciones falsas, inexactas, sesgadas o incompletas, perjudicando las decisiones que tomen los profesionales de la salud.
- Vulnerabilidad en materia de cibersegurida: Ponen en peligro la información de los pacientes, la confiabilidad de los algoritmos, así como la prestación de asistencia médica virtual.
Ante estos riesgos, la OMS propone una participación “vertical e integrada” de todas las partes interesadas, incluyendo gobiernos, empresas tecnológicas, proveedores de atención sanitaria y sociedad civil.
Por último, la Organización Mundial de la Salud sugirió a todos los gobiernos mundiales a promulgar leyes que garanticen que los LMM cumplen con los derechos humanos, y la asignación de una agencia reguladora que evalúe si estas tecnologías cumplen con los requisitos antes de su uso.