Edición Médica

Martes, 27 de febrero de 2024
01:30
Ecuador | Colombia
Avances

GRANDES MODELOS MULTIMODALES
OMS publica guía sobre ética y gobernanza de la IA aplicada a la salud
El documento tiene más de 40 recomendaciones dirigida a gobiernos, profesionales y desarrolladores
Jueves, 18 de enero de 2024, a las 12:25
El documento de la OMS ya est disponible.

El documento de la OMS ya está disponible.


Redacción. Quito
La Organización Mundial de la Salud (OMS) ha publicado nuevas orientaciones sobre la ética y la gobernanza de grandes modelos multimodales (LMM), un tipo de tecnología de inteligencia artificial (IA) generativa de rápido crecimiento que tiene aplicaciones en toda la atención sanitaria.
 
“Las tecnologías de IA generativa tienen el potencial de mejorar la atención sanitaria, pero solo si quienes las desarrollan, regulan y utilizan estas tecnologías identifican y tienen plenamente en cuenta los riesgos asociados… Necesitamos información y políticas transparentes para gestionar el diseño, desarrollo y uso de LMM para lograr mejores resultados de salud y superar las desigualdades sanitarias persistentes”, ha destacado Jeremy Farrar, científico jefe de la OMS.
 
El documento de la OMS cuenta con más de 40 recomendaciones para que las consideren gobiernos, empresas de tecnología y proveedores de atención médica para garantizar el uso apropiado de LMM para promover y proteger la salud de las poblaciones. Entre estas: 
  • - Invertir o proporcionar infraestructura pública o sin fines de lucro, incluida potencia informática y conjuntos de datos públicos, accesibles para los desarrolladores de los sectores público, privado y sin fines de lucro, que requiera que los usuarios se adhieran a principios y valores éticos a cambio de acceso.
  • - Utilizar leyes, políticas y regulaciones para garantizar que los LMM y las aplicaciones utilizadas en la atención médica y la medicina, independientemente del riesgo o beneficio asociado con la tecnología de IA, cumplan con las obligaciones éticas y los estándares de derechos humanos que afectan, por ejemplo, la dignidad, la autonomía o la dignidad de una persona. privacidad.
  • - Asignar una agencia reguladora existente o nueva para evaluar y aprobar LMM y aplicaciones destinadas a su uso en atención médica o medicina, según lo permitan los recursos.
  • - Introducir auditorías obligatorias posteriores a la liberación y evaluaciones de impacto, incluso para la protección de datos y los derechos humanos, por parte de terceros independientes cuando se implemente un LMM a gran escala. Las auditorías y las evaluaciones de impacto deben publicarse y deben incluir resultados e impactos desglosados ??por tipo de usuario, incluyendo, por ejemplo, edad, raza o discapacidad.
  • - Los usuarios potenciales y todas las partes interesadas directas e indirectas, incluidos proveedores médicos, investigadores científicos, profesionales de la salud y pacientes, deben participar desde las primeras etapas del desarrollo de la IA en un diseño estructurado, inclusivo y transparente y brindarles oportunidades para plantear cuestiones éticas, expresar inquietudes y proporcionar información para la aplicación de IA bajo consideración.
  • - Los LMM están diseñados para realizar tareas bien definidas con la precisión y confiabilidad necesarias para mejorar la capacidad de los sistemas de salud y promover los intereses de los pacientes. Los desarrolladores también deberían poder predecir y comprender posibles resultados secundarios.
Según ha indicado, los LMM pueden aceptar uno o más tipos de entradas de datos, como texto, vídeos e imágenes, y generar diversos resultados que no se limitan al tipo de datos introducidos.
 
Además, los LMM son únicos en su imitación de la comunicación humana y su capacidad para realizar tareas para las que no fueron programados explícitamente. Se han adoptado más rápido que cualquier aplicación de consumo en la historia, y varias plataformas (como ChatGPT, Bard y Bert) entrarán en la conciencia pública en 2023.
 
Beneficios y riesgos potenciales
 
La nueva guía de la OMS describe cinco aplicaciones amplias de los LMM para la salud:
 
  • - Diagnóstico y atención clínica, como responder a las consultas escritas de los pacientes.
  • - Uso guiado por el paciente, por ejemplo, para investigar síntomas y tratamientos.
  • - Tareas administrativas y de oficina, como documentar y resumir las visitas de pacientes dentro de registros médicos electrónicos.
  • - Educación médica y de enfermería, que incluye proporcionar a los alumnos encuentros simulados con pacientes.
  • - Investigación científica y desarrollo de fármacos, incluida la identificación de nuevos compuestos.
 
La OMS ha señalado que si bien los LMM están comenzando a utilizarse para fines específicos relacionados con la salud, también existen riesgos documentados de producir declaraciones falsas, inexactas, sesgadas o incompletas que podrían perjudicar a las personas que utilizan dicha información para tomar decisiones de salud.
 
Asimismo, los LMM pueden estar entrenados con datos de mala calidad o sesgados, ya sea por raza, etnia, ascendencia, sexo, identidad de género o edad.
 
En este contexto, la guía detalla riesgos más amplios para los sistemas de salud, como la accesibilidad y asequibilidad de los LMM de mejor rendimiento; que pueden fomentar un "sesgo de automatización" por parte de los profesionales de la salud y los pacientes, mediante el cual se pasan por alto errores que de otro modo se habrían identificado o se delegan incorrectamente decisiones difíciles a un LMM.
 
Además, los LMM, al igual que otras formas de IA, pueden ser vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información del paciente o la confiabilidad de estos algoritmos y la prestación de atención médica en general.
 
Para crear LMM seguros y eficaces, la OMS ha subrayado la necesidad de la participación de diversas partes interesadas: gobiernos, empresas de tecnología, proveedores de atención médica, pacientes y sociedad civil, en todas las etapas del desarrollo y despliegue de dichas tecnologías, incluida su supervisión y regulación.
 
“Los gobiernos de todos los países deben liderar de manera cooperativa los esfuerzos para regular eficazmente el desarrollo y el uso de tecnologías de inteligencia artificial, como los LMM", ha mencioando Alain Labrique, director de Salud Digital e Innovación de la División de Ciencias de la OMS.



Política de cookies

Utilizamos cookies propias y de terceros para recopilar información que ayuda a optimizar su visita. Las cookies no se utilizan para recoger información de carácter personal. Usted puede permitir su uso o rechazarlo, también puede cambiar su configuración siempre que lo desee. Al continuar con la navegación entendemos que se acepta nuestra Política de cookies.